Niektórzy twierdzą, że można zginać łyżeczki używając jedynie swojego umysłu. W Korei Południowej, w miasteczku Taejon, ludzie uczą się bardzo podobnej sztuczki. Potrzebują oni jednak komputera pomiędzy sobą a sztućcami. Aby wykonać taki eksperyment należy przymocować do czepka elektrody, które monitorują fale mózgowe i wysyłają dane do komputera (rys. 1). Komputer wyświetla wirtualną łyżkę. Różne typy działań umysłowych wytwarzają różne sygnały w mózgu. Komputer potrafi w łatwy sposób je rozróżnić. Aby zgiąć łyżkę należy się zrelaksować. Gdy komputer odczyta sygnały ze spokojnego mózgu, łyżka zaczyna "więdnąć". To, co się dzieje w Koreańskim Instytucie a Taejon, jest prostym przykładem interakcyjnej techniki przyszłości: interfejs mózg-komputer.



Rys. 1 Elektrody odczytujące sygnały z mózgu i komputer, które je przetwarza.

    Wkrótce możliwe będzie pisanie na komputerze oraz wydawanie poleceń bez użycia jakichkolwiek zewnętrznych urządzeń pośredniczących. Naukowcy na całym świecie pracują nad tym problemem. Na przykład, Wspólne Centrum Naukowe Komisji Europejskiej rozwinęło "adaptacyjny interfejs mózgu", kask oraz program komputerowy, którego zadaniem było umożliwienie sterowania urządzeniami wykorzystując komendy wydawane przez mózg. Urząd Badań w Farnborough taką samą technikę wykorzystywał do sterowanie myśliwcem w czasie lotu. Tak naprawdę, badania nad tym projektem odbywały się w laboratorium profesora Miguela Nicolelisa, w Centrum Medycznym na Uniwersytecie Duke w Północnej Karolinie. Wytrenował on dwie małpy do sterowania ramieniem robota poprzez sygnały mózgu (rys. 2). Nicolelis zaimplantował elektrody w mózgu małp, gdzie tworzą się informacje o ruchu. Kiedy mózg instruuje ciało do wykonania ruchu, to pojawia się sygnał elektryczny zanim jakakolwiek akcja zostanie wykonana.



Rys. 2 Ramię robota poruszane za pomocą fal mózgowych pochodzących z wytrenowanych przez Nicolelisa małp.

    Kiedy małpy sięgały po jedzenie, komputer odbierał sygnały z ich mózgów, analizował i przesyłał do ramienia robota, zwanego Phantom. Gdy małpa wyciągała ramię, Phantom używając sygnałów pochodzących z neuronów małp, dokładnie naśladował ich ruch. Nicolelis jednocześnie przesyłał sygnały mózgu poprzez Internet do laboratorium w Cambridge, gdzie komendy neuronów małp sterowały innym robotem Phantom oddalonym o 965 km.

    Nicolelis jest przekonany, że ten system pozwoli na kontrolę własnych kończyn osobom, które nie mogą nimi poruszać z powodu uszkodzenia rdzenia kręgowego. Ponadto system ten może pozwolić na posiadanie wirtualnych kończyn w cyberprzestrzeni lub kończyn robota w świecie fizycznym.

    Aby zobaczyć jak małpy reagują na pewnego rodzaju "anatomiczne przedłużenie", Nicolelis stworzył pętlę zwrotną pomiędzy małpami a ramieniem robota. W kolejnych eksperymentach małpy posiadały sensory umocowane do ich ciał, dzięki czemu ręka robota wysyłała sygnały czucia bezpośrednio do ich skór. Dzięki temu małpa jest zdolna do czucia "struktury" owoców dotykanych przez ramię robota na skutek sygnałów pochadzących z jej mózgu. W przyszłości małpy będą również zdolne do obserwowania ramienia robota w akcji na ekranie komputera. Nicolelis ma nadzieję, że takie podejście z wizualnym sprzężeniem pozwoli na uczenie małp kojarzenia ruchów ich rąk z ich myślami.

    Nicolelis jest pewien, że technologiczny przełom nadejdzie być może w postaci jakichś trwałych implantów wewnątrzczaszkowych. Prawdopodobnie upłynie jeszcze sporo czasu, zanim nasze mózgi będą łączyły się z naszymi komputerami. Kiedy jednak ten dzień nastąpi, ludzkie ciało będzie mogło zrobić więcej, niż potrafi jedynie za pomocą dwóch rąk i dwóch nóg.

 Powrót


Źródło: