Képekké alakít mondatokat a Google mesterséges intelligenciája

2017. július 01. 08:30

A Google talán leghíresebb leányvállalata, az AlphaGot fejlesztő londoni DeepMind mesterséges intelligenciája ezúttal mondatokat alakított képekké. Minél részletesebbek a mondatok, annál jobbak a képek.

2017. július 01. 08:30

A világ egyik vezető mesterségesintelligencia-műhelye, a Demis Hassabis irányította és néhány éve a Google által felvásárolt londoni DeepMind előremutató fejlesztéseivel, elsősorban a gobajnokokat agyonverő AlphaGo programmal hívta fel magára a nemzetközi figyelmet.

Ezúttal MI-jük más területen jeleskedik: inputként használt emberi mondatokat alakít át fotorealista képekké. Mesterséges intelligencia és képtechnológiák kéz a kézben fejlődnek, és e fejlődésben a már régóta nem csak keresőóriás kulcsszerepet játszik. Februárban a Google Brain tudósai PixelCNN gépükkel gyenge felbontású képeket változtattak kiváló minőségű nagyfelbontásúakká.

Most is ugyanezt a technológiát alkalmazták, és megállapították, hogy minél részletesebb egy mondat, minél leíróbbak a szavak, annál jobb az eredmény. A „sárga madár fekete fejjel és narancssárga csőrrel” inputra pontosan azt kapták, amit elmondtak a rendszernek.

Az algoritmus képgyűjteményből válogat, ismer fel kategóriákat, például madarak és emberek arcát, és hoz létre a tanuláshoz használtaktól jelentősen eltérő képeket.

Összesen 0 komment

A kommentek nem szerkesztett tartalmak, tartalmuk a szerzőjük álláspontját tükrözi. Mielőtt hozzászólna, kérjük, olvassa el a kommentszabályzatot.
Sorrend:
Jelenleg csak a hozzászólások egy kis részét látja. Hozzászóláshoz és a további kommentek megtekintéséhez lépjen be, vagy regisztráljon!