Mesterséges intelligenciával előrejelezhető és meghiúsítható az öngyilkosság?

2017. március 27. 11:30

A Facebook és mások is öngyilkosság-megelőző technikákat dolgoznak ki. Ezek a rendszerek előbb-utóbb többet tudhatnak rólunk, mint mi magunk, viszont bőven a végzetes tett előtt figyelmeztethetnek. Mesterséges intelligenciával bővül a preventív orvostudomány?

2017. március 27. 11:30
Megan Molteni
Wired

„A Facebook évek óta sok pénzt fektet mesterséges intelligenciába, hogy mindenkinél jobban eladjon bármit. Most nemesebb célra, öngyilkosságra készülők végzetes tettének megakadályozására is használják is használnák az MI-t. Nem teljesen önzetlenül, mert a Facebook Live-on élőben közvetített esetek nem csapnak jó reklámot a cégnek.

A Facebook, a kínai Live.me videoplatform és egyéb techcégek mellett, kórházak, sőt az USA Veteránügyi Hivatala is foglalkozik MI-alapú öngyilkosság-megelőzéssel. Jó előrejelző modellekkel sikeres lehet, és ki vitatná, hogy a megelőző orvostudomány a legjobb orvostudomány, pláne, ha mentális egészségünkről van szó.

Az amerikai Betegségellenőrzés és Megelőzés Központjainak utolsó, 2014-es adatai alapján az elmúlt 30 évben 2014-ben követtek el legtöbben öngyilkosságot. Erősödő tendencia, a hagyományos megelőzési módszerek nem működnek: a jelölt nehezebben jusson fegyverhez, gyógyszerhez, droghoz, orvosok jobban ismerjék fel a tendenciákat. Sajnos az orvosok jelentős része ma is csak depresszióhoz és droghasználathoz kapcsolja az öngyilkosságot. Nem sokkal jobb eredményt érnek el így, mintha pénzérmét dobnának fel.

MI-vel pontosabban azonosíthatók az érintettek, és jóval a végzetes tett előtt közbe lehet lépni. A Floridai Állami Egyetem friss tanulmányban számol be, hogy gépi tanulás segítségével 80-90 százalékos pontossággal 1-2 évre előre jeleztek öngyilkossági tendenciákat. Technikájuk hasonlít a Facebook szövegbányászatához. A közösségi média az USA-ban most tesztelés alatt álló algoritmusa gyanús posztokat címkéz fel. Mark Zuckerberg elmondta, hogy a pilotot más öngyilkosság-megelőző megoldásokkal együtt integrálják a rendszerbe.

A következő lépés videó-, audió- és szöveges posztok, kommentek szimultán elemzése sokkal nehezebb. Programok már képesek azonosítani személyek meztelenségét, és ugyanez kellene fegyverekkel, késekkel. Tablettákkal még problémásabb. Egy DARPA által finanszírozott MIT-s cég, a Cogito a user napi tevékenységéről passzívan adatokat gyűjtő rendszeren dolgozik. Neve Companion (társ), de nem viselkedik mindig úgy, mint egy társ. Beszédtónust, energikusságot, folyékony beszédet elemez, telefonunk gyorsulásmérőjét is használja, hogy depresszióra utaló jelekre bukkanjon.  Annyi adatot gyújt össze, hogy tökéletes kép alakítható ki az adott személy mentális állapotáról.

Gondolkodjunk el rajta. Telefonunk szenzorai, kamerája, mikrofonja, üzeneteink stb. alapján Companion rengeteget tud rólunk. Elvileg többet, mint mi magunk. Elég néhány kihagyott edzés, párszor nem hívtuk vissza szüleinket, tovább maradtunk az ágyban a megszokottnál. A gép figyelmeztető jelekké alakítja a szokatlant. Kicsit elrugaszkodott jövő, privacy ügyvédeknek jól ki kell találni. Mindenesetre a hírfolyamot nézve, alaposan figyeljünk lefelé görgetés közben, és jegyezzük meg, ha az algoritmusok mondanak valamit.” 

az eredeti, teljes írást itt olvashatja el Navigálás

Összesen 1 komment

A kommentek nem szerkesztett tartalmak, tartalmuk a szerzőjük álláspontját tükrözi. Mielőtt hozzászólna, kérjük, olvassa el a kommentszabályzatot.
Sorrend:
annamanna
2017. március 29. 11:55
"jóval a végzetes tett előtt közbe lehet lépni." Kinek és hogy? Kinek adja le a FB a "drótot", hogy xy veszélyes saját magára? És miért csak erről gyűjt adatokat? Azt vajon előre jelzi-e, ha valaki gyilkosságra készül, egyéb bűntényekre? Vagy már el is követte, csak nem kapták el? Vagy ha az egészségi állapot romlik le, és ennek jeleit veszi észre, küld-e figyelmeztetést? Ennek legalább sokan örülnének.
Jelenleg csak a hozzászólások egy kis részét látja. Hozzászóláshoz és a további kommentek megtekintéséhez lépjen be, vagy regisztráljon!