„A mesterséges intelligenciára jellemző elfogultság és diszkrimináció nem programhiba, hanem a rendszer lényegi jellemzője, hiszen a Big Data adatelemzés logikus következménye” – olvassuk a Merkur magazinban Paola Lopez jogász esszéjét.
Az elmúlt években egyre több területen használják a mesterséges intelligenciát. Az internetes keresők, a chatbotok és a beszédfelismerő internetes alkalmazások révén már mindennapjainkban is alkalmazzuk. A jövőben alighanem még nagyobb területet hódít el a humán munkaerőtől. Elon Musk nemcsak az önvezető autók irányítását akarja rábízni, hanem az emberi agy működését is mesterséges intelligenciát használó chippel javítaná. A mesterséges intelligencia nemcsak a bonyolult összefüggések feltárását segíti, hanem már kreativitást igénylő feladatok elvégzésére is képes, és egyre inkább átveszi a döntéshozást és vele életünk irányítását.
A mesterséges intelligencia előretörése mögött részben az az elgondolás áll, hogy az algoritmusokon illetve adatokon alapuló döntéshozás elfogulatlan és tárgyilagos. Lopez arra világít rá, hogy példák sora cáfolja ezt az optimista felfogást. Az egészségügyben alkalmazott diagnosztikai szoftverről kiderült, hogy a feketék esetében alábecsüli az egészségügyi kockázatokat. Mivel a feketék kevesebb egészségügyi szolgáltatást vettek igénybe a múltban, a mesterséges intelligencia a bőrszínt az egészségi állapot szempontjából releváns változónak tekintette. Hasonló probléma jelentkezett az amerikai hatóságok által használt prediktív rendvédelmi szoftverrel kapcsolatban is, amely a fekete elkövetők esetében magasabb visszaesési kockázatot kalkulált. Az Amazon HR-szoftvere a férfi jelentkezőket részesítette előnyben: mivel korábban főleg férfi informatikust vett fel a cég, az adatelemző program statisztikai alapon alkalmasabbnak ítélte a férfiakat. A bizarr példák sora napestig folytatható lenne.
A mesterséges intelligencia téves helyzetértékelései nem programhibából fakadnak – írja Lopez. Az algoritmusok statisztikai összefüggéseket mutatnak ki a rendelkezésre álló adathalmazban. Lopez elismeri, hogy ez rendkívül hasznos, hiszen az adatelemzés rávilágíthat például a rendszerszintű egyenlőtlenségekre. Annál aggályosabb a mesterséges intelligencia által leírt statisztikai összefüggéseket mérlegelés nélkül döntéshozásra vagy akár előrejelzésre használni. Már Georg Jellinek 19. századi osztrák jogtudós is megfigyelte, hogy az ember hajlamos az általánosan elfogadott jelenségeket követendő normának tekinteni. Igen ám, csakhogy a mesterséges intelligencia által feltárt statisztikai összefüggés sokszor éppen a társadalmi egyenlőtlenség vagy akár előítéletek tükre, és ezért nem volna szabad szükségszerűségnek tartani. Ha mégis ezt tesszük, akkor felerősítjük az egyenlőtlenséget – figyelmeztet Lopez. Példaként az amerikai rendőrség által használt szoftvert említi, amely a szabálysértések száma alapján határozta meg a járőrözési útvonalakat. Ahol több volt a rendbontás, oda több rendőrt küldött. Természetesen, ahol aztán több rendőr járőrözött, ott ismét több szabálysértést regisztráltak, vagyis a szoftver prognózisa önbeteljesítő jóslattá vált. Hasonló eredményre vezetett az osztrák munkaügyi hivatal által használt program is, amely álláskeresési esélyeik alapján rangsorolta a munkanélkülieket. A legreménytelenebb helyzetűnek ítélteket a mesterséges intelligencia a szociális ellátórendszerbe utalta. Az így besoroltak ezek után aligha találtak állást, ezzel beteljesítve a szoftver prognózisát.
Lopez mindennek fényében helyesebbnek látná, ha többet használnánk a józan eszünket, mint az elfogulatlanság hamis látszatát keltő mesterséges intelligenciát. Hasonló következtetésre jut Adrian Lobe is a Neue Zürcher Zeitung hasábjain. Megjegyzi, hogy a Twitter mesterséges intelligenciát használó chatbotja rasszista kijelentéseket gyártott: a mikroblog korábbi hozzászólásainak pár órás tanulmányozása után kijelentette, hogy „Hitlernek igaza volt, utálom a zsidókat.” Egy dél-koreai chatbot homofóbbá vált, egy kínai pedig a kommunizmust bírálta, amíg a pártvezetés le nem tiltatta. Lobo felidézi Mohamad Ali Nasser adatelemző kísérletét, amely rávilágított, hogy a mesterséges intelligencia a betanításához használt tartalomhoz idomul. Ha liberális szövegeket kapott, akkor az egyéni jogok hívévé vált, ha pedig marxista forrásokat olvastattak vele, akkor a kommunizmust kezdte hirdetni.