• A Google tulajdonában lévő DeepMind úttörő mesterséges intelligenciát fejleszt
  • A program képes tanulni
  • Már 49 retro játékot sajátított el
  • Bizonyos programokban sokkal jobb, mint egy ember

A DeepMind nagyot villantott a mesterséges intelligencia területén, ugyanis bemutattak egy olyan programot, ami képes külső behatás nélkül, önállóan tanulni, új taktikákat sajátítva el. Erre próba szerencse alapon tesz szert, vagyis addig nyüstöli az elé rakott feladatot, ameddig az algoritmusok ki nem adnak egy logikus megoldást.

A program eddig 49 retro játék használatát tanulta meg, a tesztek során pedig a magukat profi játékosoknak tartó alanyok ügyességének 75%-át tudta produkálni -- egyes játékokban jelentősen meghaladta hús-vér vetélytársát, míg máshol csúfosan elbukott. Főleg azok a játékok jelentik az MI gyengéjét, amikhez valamilyen hosszú távú stratégia, a mechanizmusok mélyebb megértése kell -- persze ezen is dolgoznak már a DeepMind szakemberei. Egy memória modult építenek, hogy a komplexebb, 3D-s játékokkal is meg tudjon birkózni az alkotásuk.

A Google tavaly 400 millió fontért vásárolta meg a DeepMind csapatát, és nem kérdés, hogy a most bemutatott programot, vagyis annak egy előrébb haladott változatát széles körben kívánják felhasználni. A magát vezető autó illetve az okostelefontokba épített személyi asszisztens kézenfekvő példa a MI használati lehetőségeire, de tudományos kutatásokban is segíthetne.