Hetilap

Jön a harmadik világháború?

Eszkaláció a Közel-Keleten
VI. évfolyam 16. szám

Nem a gépi intelligencia, hanem a gépi inkompetencia az igazi veszély

2017. február 09. 08:30

Felejtsük el a szuper mesterséges intelligenciát! Kutatók szerint valószínűbb, hogy a silány MI lesz a vesztünk.

2017. február 09. 08:30
Michael Byrne
Motherboard

„MI-kutatóknak kínosak voltak az utóbbi évek. Képzeljük el, hogy egy csomó híres technológus és csúcskomoly tudományos szaktekintély hirtelen ráront a kutatási területünkre, és az egész emberi fajra leselkedő fenyegetésnek állítja be. Csak előre akarjuk jelezni a szövegelemzésen alapuló korrekt emoji-használatot, de jön Elon Musk, és azt mondja erről az általa szemmel láthatóan nem nagyon értett területről, hogy ez a tényleges apokalipszis.

Nem mintha számítástudósok ne, érveltek volna az MI hype ellen. Ebben a hónapban Alan Bundy, az Edinburgh Egyetem automatizált következtetéssel foglalkozó kutatója mondott nagyon érdekeset: nem az emberszerű gépi intelligencia lesz ámokfutó, hanem pont az ellenkezője, a gagyi MI a veszély. Az inkompetens, kétbalkezes gépek.

Bundy szerint az elmúlt évek legnagyobb Mi-szenzációi igencsak szűk horderejűek. Vannak őrült pénzeken fejlesztett gót és jeopardyt játszó gépeink, de az általános intelligenciához az égvilágon semmi közük. A szingularitást lineáris intelligenciamodell alapján, fokozatosan fejlődő MI-vel prognosztizálják. Csakhogy az intelligencia más. Többdimenziós térben, többféle intelligenciával, több irányba fejlődő MI-vel kellene modellezni.

A probléma, hogy a nyilvánosság nem nagyon érti, mert senki nem veszi a fáradtságot, hogy elmagyarázza. Sokan túl nagy intelligenciát tulajdonítanak szűk területre összpontosító MI-rendszereknek.

Bundy a korai 1980-as években ellenezte Ronald Reagan és Teller Ede Stratégiai Védelmi Kezdeményezését (SDI), amelyben zárt (értsd embermentes) MI-rendszer detektált és lőtt volna szét lézerrel szovjet interkontinentális ballisztikus rakétákat. Az SDI remek ötletnek tűnt a döntéshozók számára, de a döntéshozók nem értették, hogy MI pont nem volt benne. Gyakran történtek madárrajok, holdfény és hasonlók által generált hamis pozitív jelzések. És egy-egy hamis pozitív akár atomháborút is jelenthetett volna.

Az MI elszigetelten fog fejlődni, új és bámulatos gépektől szörnyülködnek majd a vészmadarak, látván mennyire jól teljesítenek szűk szegmensekben. Viszont akármi mással kell foglalkozniuk, hihetetlenül ostobák maradnak.

A kockázat ugyanaz, mint az 1980-as években volt. A közvélemény és a döntéshozók ledöbbenek sakkban remeklő gépektől, de nem veszik észre, mekkorát buknak, ha általánosabb feladatot kellene megoldani, vagy az emberi érzékeléshez hasonlót várnak tőlük.”

Játsszon és nyerjen páros belépőt!
az eredeti, teljes írást itt olvashatja el Navigálás

Összesen 2 komment

A kommentek nem szerkesztett tartalmak, tartalmuk a szerzőjük álláspontját tükrözi. Mielőtt hozzászólna, kérjük, olvassa el a kommentszabályzatot.
Sorrend:
drkovax
2017. február 21. 14:21
Feltűnően korrekt és realista.
Jelenleg csak a hozzászólások egy kis részét látja. Hozzászóláshoz és a további kommentek megtekintéséhez lépjen be, vagy regisztráljon!