„Tudósok egy csoportja arra tanítaná a gépeket, hogy kiismerjék valódi vágyainkat. Azt remélik, hogy így elkerülhetnénk a gépek közvetlen emberi irányításából fakadó, akár katasztrofális következményeket” – olvassuk Corinne Reid bostoni képzőművész és publicista cikkét a Quanta tudománynépszerűsítő magazinban.
A mesterséges intelligencia fejlődésével egyre inkább égetővé válnak olyan problémák, amelyekkel korábban csak a tudományos-fantasztikus irodalomban találkoztunk. Minél okosabbak a gépek, annál önállóbbá válnak. Sokan tartanak tőle, hogy a gépek önálló életre kelnek. Ez ugyan még igen távoli lehetőség, de azt már ma is látjuk, hogy a gépeket vezérlő algoritmusok nem feltétlenül racionálisabbak és elfogulatlanabbak, mint az emberek. A technológia nem semleges: a gépeket irányító programok is szükségképp erkölcsi ítéleteket hoznak. Elég csak az önvezető autó algoritmusával kapcsolatos morális dilemmákra utalni.
A mesterséges intelligenciával kapcsolatos aggodalmak abból fakadnak, hogy a gépeket nem tanítjuk, hanem idomítjuk – véli Reid. Vagyis egyértelmű parancsokat és utasításokat adunk nekik. A gépek ezeket feltétlen szabályként értelmezik, és minden körülmények között, mérlegelés nélkül követik. Ha általánosabb célokat fogalmazunk meg, akkor a gépek azt keresik majd, hogyan érhetik el e célokat minél hatékonyabban, nem törődve a nem szándékolt és a programozók által sem előre látható következményekkel. Nick Bostrom oxfordi filozófus ezt szemléltette egy gondolatkísérlettel, amelynek során egy gemkapocs-gyártásra tervezett robot az egész világot egy nagy gemkapocs-gyárrá alakítja. A mindennapi algoritmusok persze nem járnak ennyire drasztikus következményekkel, de hasonló folyamatok náluk is megfigyelhetők. A kattintásokat maximalizálni hivatott online ajánlók például a hatásvadász és szélsőséges nézetek terjedését erősítik, és kutatások szerint ezzel erősítik a megosztottságot és a radikalizálódást.
Stuart Russel informatikus ezért egészen más módon okosítaná a mesterséges intelligenciát. Nem konkrét utasításokat adna a gépeknek, hanem valós emberi döntések alapján megtanítaná őket a bonyolult és gyakran ellentmondó preferenciák mintázatainak követésére. Így képesek lennének felismerni az emberi célok feltételességét, esetlegességét és irracionalitását. Ezáltal pedig képesek lehetnének az emberhez hasonló döntéseket hozni. Persze lehet, hogy ezeket a döntéseket sem mindig értenénk, de ez az elmélet szempontjából mellékes, hiszen az emberi döntéseket sem mindig értjük.
Sőt, az emberi döntéseket tanulmányozó és rendszerező mesterséges intelligenciától akár még tanulhatnánk is – véli Reid. Vagyis nemhogy elbutulnánk az algoritmusokra hagyatkozva, hanem éppen ellenkezőleg, bölcsebbek lennénk tőlük. A szisztematikus analízis ugyanis rámutathat preferenciáink olyan ellentmondásaira és implicit előfeltevéseire, amelyeket magunktól nem lennénk képesek felismerni, pedig ezzel racionálisabbá tehetnénk magatartásunkat.
A kérdés már csak az – mereng az elméleten Reid –, hogy mi történik akkor, ha a döntéseink alapjául szolgáló implicit motivációk önzőek, vagy egyenesen gonoszak. Ebben az esetben a mesterséges intelligencia természetünk sötét mozgatórugóit tenné mintává. Reid pedig már abban sem biztos, hogy valóban örülnénk-e, ha belelátnánk motivációink mély bugyrába.