„Az okos kormányzással van egy kis probléma: az algoritmusok is lehetnek elfogultak” – írja Li Zhou, a Politico magazin publicistája.
Zhou felidézi, hogy tavaly kisebb botrány tört ki, amikor kiderült, hogy a Google fordítója nemi sztereotípiákat használ: az angolra fordított szövegben a hagyományosan női munkákat női személyes névmással jelöli akkor is, ha egy olyan nyelvről fordítunk, amelyben nincsenek különböző nemű névmások. A Google szoftvere tulajdonképpen érthetően járt el, hiszen a fordításban a hasonló szövegkörnyezetben leggyakoribb névmásokat vette figyelembe. Mégis nagy volt a felzúdulás, hasonlóan nagy felhorkanást váltott ki, amikor a Google főleg fehér arcokon tesztelt alkalmazása, a fényképfelismerő gorillaként azonosított egy fekete párt.
Mindez pedig súlyos problémákat okozhat, hiszen az algoritmusok egyre szélesebb körben használatosak. Amerikában szoftverrel próbálják kiszűrni az olyan bűnelkövetőket, akik nagyobb eséllyel válnak visszaesővé. Kutatások kimutatták, hogy a feketék esetében a program hajlamosabb magasabbra értékelni a visszaesés kockázatát. Mivel a bíróságok több államban is használják a szoftvert, az algoritmusok hatással vannak az ítéletekre. Az algoritmusoknak egyre nagyobb szerep jut nemcsak a banki hitelbírálatokban, de az állami segélykérelmek elbírálásában, a rendőrségi és az egészségügyi irányelvek alakításában is.
Az okos kormányzás technokratái azt remélik, hogy az adatokon és algoritmusokon alapuló döntéshozás hatékonyabb és elfogulatlanabb lesz. A fenti esetek azonban rávilágítanak az „algoritmikus elfogultság” problémájára: arra, hogy a szoftverek is tükrözni fogják az általuk felhasznált adatokban található elfogultságot. Az algoritmusok egyáltalán nem objektívek és semlegesek, hiszen őket is emberek hozzák létre, akik akaratlanul is elfogultak lehetnek (és persze azt sem lehet kizárni, hogy szándékosan hoznak létre számukra kedvező irányban elfogult algoritmusokat). Az Obama-kormány technológiai ügyekért felelős hivatala már 2016-ban arra hívta fel a figyelmet, hogy a mesterséges intelligencia használata növelheti az egyenlőtlenséget.
Nyilvánvaló, hogy új szabályozásra van szükség az algoritmikus elfogultság felszámolása érdekében – írja Zhou. New York állam tavaly decemberben már létre is hozta az algoritmusok etikáját vizsgálni hivatott bizottságot. Az EU adatvédelmi szabályozása már most is lehetővé teszi, hogy az algoritmusokon alapuló döntések érintettjei megismerhessék a döntések során felhasznált algoritmusok működési mechanizmusát.
Egyáltalán nem világos azonban, hogy miként is lehetne átláthatóbbá tenni az algoritmusokat. A mesterséges intelligencia algoritmusai egyediek, ezért nagyon nehéz törvényi úton szabályozni őket. Gyakran előfordul, hogy az algoritmusok készítői szerzői jogokra hivatkozva nem hozzák nyilvánosságra a forráskódot (gyakran még a kormányzat által használt programok esetében sem), így viszont nehéz előre megállapítani az algoritmus elfogultságát. Kézenfekvő megoldás lenne nyílt forráskódú szoftverek használata, illetve a szoftvergyártók kötelezése a forráskód nyilvánossá tételére. Ám ez sem oldaná meg a problémát. Hovatovább hétköznapi eszközeinket sem tudjuk uralni, mert nem vagyunk képesek átlátni az őket irányító szoftverek működését. A mesterséges intelligencia esetében pedig még szakembereknek sem mindig könnyű megfejteniük az algoritmikus döntési mechanizmust.