LinkedIn YouTube Facebook
Szukaj

Newsletter

Proszę czekać.

Dziękujemy za zgłoszenie!

Wstecz
Aktualności

Interfejs mózg-komputer przywraca mowę: przełom neurotechnologii i AI

Neurotechnologia wkracza na nowy poziom. Interfejs mózg-komputer (BCI) wspierany przez sztuczną inteligencję przywraca mowę osobom sparaliżowanym. Jak to działa i co oznacza dla przyszłości komunikacji?

Czy możliwe jest mówienie bez użycia strun głosowych? Dzięki połączeniu implantów mózgowych z algorytmami AI odpowiedź brzmi: tak.

System opracowany przez naukowców z Uniwersytetu Kalifornijskiego w Berkeley i San Francisco działa w oparciu o implanty umieszczone w korze ruchowej mózgu. Te mikroelektrody rejestrują sygnały neuronalne powstające w momencie, gdy pacjent próbuje mówić. Zebrane dane trafiają do modelu AI, który dekoduje je na mowę syntetyczną w czasie rzeczywistym (opóźnienie poniżej 1 sekundy).

Czujnik na czaszce z wyszkolonym modelem AI, naukowcy z UC byli w stanie syntetyzować mowę w czasie rzeczywistym dla sparaliżowanych pacjentów. Źródło: All about Circuits, UC Berkeley

Co wyróżnia tę technologię?

  • Odtwarza naturalny głos pacjenta na podstawie archiwalnych nagrań
  • Działa niemal bez opóźnienia
  • Pozwala na płynną konwersację
  • To nie tylko pomoc technologiczna, ale prawdziwa rewolucja w rehabilitacji neurologicznej.

Studium przypadku: historia Ann Johnson

Po udarze mózgu Ann Johnson straciła zdolność mówienia na 18 lat. W 2023 roku została jednym z pierwszych pacjentów korzystających z nowej technologii BCI.

Usłyszeć znów swój głos… to jak odzyskać część siebie – powiedziała Ann po pierwszej sesji z systemem.

Jej myśli przekształcane były na mowę z opóźnieniem mniejszym niż sekunda. Co więcej, AI wykorzystało nagrania z przeszłości, aby odtworzyć brzmienie jej głosu, nadając komunikatom emocjonalny wymiar.

Nowy standard komunikacji

W przeciwieństwie do klasycznych syntezatorów mowy, interfejs mózg-komputer nie bazuje na tekście wpisywanym przez pacjenta. Dekoduje intencje wypowiedzi bez potrzeby fizycznego ruchu czy pisania.

Zalety rozwiązania:

  • Naturalna intonacja i tempo mowy
  • Personalizacja na podstawie głosu pacjenta
  • Zintegrowany system AI uczący się stylu komunikacji użytkownika

Technologia ta otwiera drzwi do zupełnie nowych zastosowań nie tylko w medycynie, ale też w edukacji i interfejsach człowiek-komputer.

Źródło: Informacje prasowe

Polski portal branżowy dedykowany zagadnieniom elektroniki. Przeznaczony jest dla inżynierów i konstruktorów, projektantów hardware i programistów oraz dla studentów uczelni technicznych i miłośników elektroniki. Zaglądają tu właściciele startupów, dyrektorzy działów R&D, zarządzający średniego szczebla i prezesi dużych przedsiębiorstw. Oprócz artykułów technicznych, czytelnik znajdzie tu porady i pełne kursy przedmiotowe, informacje o trendach w elektronice, a także oferty pracy. Przeczyta wywiady, przejrzy aktualności z branży w kraju i na świecie oraz zadeklaruje swój udział w wydarzeniach, szkoleniach i konferencjach. Mikrokontroler.pl pełni również rolę patrona medialnego imprez targowych, konkursów, hackathonów i seminariów. Zapraszamy do współpracy!