Nem a gépi intelligencia, hanem a gépi inkompetencia az igazi veszély

2017. február 9. 08:30

Michael Byrne
Motherboard

Felejtsük el a szuper mesterséges intelligenciát! Kutatók szerint valószínűbb, hogy a silány MI lesz a vesztünk.

„MI-kutatóknak kínosak voltak az utóbbi évek. Képzeljük el, hogy egy csomó híres technológus és csúcskomoly tudományos szaktekintély hirtelen ráront a kutatási területünkre, és az egész emberi fajra leselkedő fenyegetésnek állítja be. Csak előre akarjuk jelezni a szövegelemzésen alapuló korrekt emoji-használatot, de jön Elon Musk, és azt mondja erről az általa szemmel láthatóan nem nagyon értett területről, hogy ez a tényleges apokalipszis.

Nem mintha számítástudósok ne, érveltek volna az MI hype ellen. Ebben a hónapban Alan Bundy, az Edinburgh Egyetem automatizált következtetéssel foglalkozó kutatója mondott nagyon érdekeset: nem az emberszerű gépi intelligencia lesz ámokfutó, hanem pont az ellenkezője, a gagyi MI a veszély. Az inkompetens, kétbalkezes gépek.

Bundy szerint az elmúlt évek legnagyobb Mi-szenzációi igencsak szűk horderejűek. Vannak őrült pénzeken fejlesztett gót és jeopardyt játszó gépeink, de az általános intelligenciához az égvilágon semmi közük. A szingularitást lineáris intelligenciamodell alapján, fokozatosan fejlődő MI-vel prognosztizálják. Csakhogy az intelligencia más. Többdimenziós térben, többféle intelligenciával, több irányba fejlődő MI-vel kellene modellezni.

A probléma, hogy a nyilvánosság nem nagyon érti, mert senki nem veszi a fáradtságot, hogy elmagyarázza. Sokan túl nagy intelligenciát tulajdonítanak szűk területre összpontosító MI-rendszereknek.

Bundy a korai 1980-as években ellenezte Ronald Reagan és Teller Ede Stratégiai Védelmi Kezdeményezését (SDI), amelyben zárt (értsd embermentes) MI-rendszer detektált és lőtt volna szét lézerrel szovjet interkontinentális ballisztikus rakétákat. Az SDI remek ötletnek tűnt a döntéshozók számára, de a döntéshozók nem értették, hogy MI pont nem volt benne. Gyakran történtek madárrajok, holdfény és hasonlók által generált hamis pozitív jelzések. És egy-egy hamis pozitív akár atomháborút is jelenthetett volna.

Az MI elszigetelten fog fejlődni, új és bámulatos gépektől szörnyülködnek majd a vészmadarak, látván mennyire jól teljesítenek szűk szegmensekben. Viszont akármi mással kell foglalkozniuk, hihetetlenül ostobák maradnak.

A kockázat ugyanaz, mint az 1980-as években volt. A közvélemény és a döntéshozók ledöbbenek sakkban remeklő gépektől, de nem veszik észre, mekkorát buknak, ha általánosabb feladatot kellene megoldani, vagy az emberi érzékeléshez hasonlót várnak tőlük.”

Az eredeti, teljes írást itt olvashatja el.
A bejegyzés trackback címe: http://digit.mandiner.hu/trackback/28358