Előre jelzi a bűncselekményt a mesterséges intelligencia – azzal támadják, hogy rasszista lesz

Index, Csepel.info

A brit rendőrség olyan adatelemző technológiát tesztel, amely előre megállapítja valakiről, hogy mekkora eséllyel követhet el valamilyen bűncselekményt, illetve azt, hogy mekkora veszélye annak, hogy áldozattá váljon. A kritikusok óva intenek a rendszer széles körű bevezetésétől, amelynek egy szélsőséges megvalósítását mutatja be a Különvélemény című hollywoodi film. 

Most azzal vádolják a megtörtént esetekből tanuló rendszert, hogy előítéletes és rasszista lesz. Pedig már arra is van terv, hogy Anglia és Wales területén vezetik majd be a National Data Analytics Solution (NDAS) elnevezésű rendszert, amelynek a kifejlesztésére 4,5 millió fontot szavazott meg a brit kormány, és ezt követően még 5 millió font juthat a programra – írja az Index alábbiakban idézett cikke. 

A fejlesztés és a teszt már több mint egy éve zajlik a West Midlands Police felügyelete alatt, és eddig a lőfegyverrel vagy késsel elkövetett támadások adatait vitték fel a rendszerbe, hogy azonosítsák az akciókra jellemző mintázatokat, valamint az elkövetők közös vonásait. A következő lépésben a modern kori rabszolgatartásra jellemző adatokat viszik fel a rendszerbe, hogy könnyebben fel tudják deríteni ezeket a rejtett hálózatokat, jobban megismerjék a kockázati tényezőket.

A brit belügyi tárca szerint az NDAS nem fogja helyettesíteni a rendőröket olyan értelemben, hogy az ügyeikben a döntéseket továbbra is nekik kell meghozni, csupán egy támogató eszközként alkalmaznák a rendszert.

Az Independent kiderítette, hogy a West Midland Police állománya nem rendel el letartóztatásokat vagy bármilyen beavatkozást pusztán az NDAS javaslatai alapján.

Minden ilyen rendszer használatánál nagyon fontos, hogy jók legyenek a bevitt adatok. Számos mesterséges intelligenciára épülő elemző algoritmusnál kiderült, hogy azok képesek jelentősen felnagyítani a sztereotípiákat, erősíthetik a hátrányos megkülönböztetést például nem, kor vagy bőrszín alapján.

Galibát okozott például, hogy az orvosokról készült fotókon túlsúlyban vannak a férfiak, míg a nővéreknél a nők, a bűnüldözésben pedig a bőrszín jelent hátrányt. A rendszer kritikusai szerint már most is kilencszer nagyobb eséllyel igazoltatja a rendőrség a fekete bőrűeket, mint a fehéreket.

Mint az Independent cikkéből kiderül, a brit rendőrség tisztában van ezekkel az etikai kérdésekkel, így talán kellő óvatossággal kezelik majd a gépi jóslatokat, és remélhetőleg igyekeznek kiküszöbölni a hátrányos megkülönböztetést.

Forrás: Index

Egy hozzászólás “Előre jelzi a bűncselekményt a mesterséges intelligencia – azzal támadják, hogy rasszista lesz” bejegyzésre

  1. Dagobert bácsi szerint:

    Vajon ez az öntanuló rendszer a “Híd a munka világába” program másfél milliárdjának ellopását is valószínűsítette volna, az elkövetők személyét behatárolta volna?

Itt lehet hozzászólni !