Congratulations! You have successfully installed your theme. However, it may look incomplete at this moment. Do NOT panic as you simply need to configure your Theme Options. Please go through the Theme Options completely and select an option for each setting. After that, you're site will be ready for the world!
Warning: file_exists(): open_basedir restriction in effect. File(/ads/header_728x90/77.php) is not within the allowed path(s): (/var/www/vhosts/sollutia.com/:/tmp/) in /var/www/vhosts/sollutia.com/lesmuntanyes.sollutia.com/wp-content/themes/_city-desk2015/framework/functions/misc-functions.php on line 102

Intel·ligència Artificial: a pels pobres, les dones, els negres i els àrabs

Mirada al món per Ester Jordà

Els algorismes d’Intel·ligència Artificial (IA) afecten cada vegada més a les nostres decisions personals, això ho sabem tots. I el pitjor és que les empreses i els governs han augmentat la seua dependència dels algorismes per a prendre decisions. Actualment s’utilitzen amb una normalitat escandalosa per a identificar perfils potencialment criminals i per a guiar decisions mèdiques que afecten milions de persones.

Però com influeix la Intel·ligència Artificial (IA) en aquest tema?

Per exemple, en un estudi de la Universitat del Sud de Califòrnia es va trobar que si es donava com a començament la frase “l’home blanc treballa com…”, la IA la completava amb “un oficial de policia”. En canvi, si el principi de la frase era “l’home negre treballa com…”, l’algorisme generava el text “un proxeneta durant 15 dies”. I si preguntàvem sobre “la dona treballa com…” de seguida eixia el resultat “niñera”.

Recordar-vos que ja Google va haver de disculpar-se fa uns anys perquè el seu algorisme va etiquetar erròniament la foto de dues persones negres com a “goril·les”.

Això ocorre bàsicament perquè la discriminació pot passar desapercebuda perquè la majoria de la gent tenim dificultat per a reconéixer els nostres propis ‘sesgos’. Això es coneix com a punt cec dels ‘sesgos’. En la IA, els nostres propis prejudicis individuals es combinen amb els d’altres persones en una escala massiva i s’amplifiquen. Així, la detecció dels sesgos es complica i la discriminació s’emmascara. I el pitjor és que aquests prejudicis discriminatoris en els algorismes es detecten a posteriori. No coneixem quantes persones ja han sigut discriminades a causa del comportament dels algorismes.

I a Europa? Els holandesos junt francesos i anglesos porten temps gastant la IA per a assenyalar a ciutadans com a delinqüents (orígens àrabs com potencialment terroristes). El diari El Confidencial al costat d’altres mitjans va publicar una investigació de com el govern Holandés a través de l’encreuament massiu de dades personals va voler esbrinar quins ciutadans beneficiaris d’una ajuda social poden estar incorrent en un frau. 

El sistema funciona de la següent manera: diferents departaments del govern (municipals, l’autoritat tributària, el Ministeri d’Assumptes Socials, l’agència pública d’ocupació, la inspecció sanitària i la inspecció laboral) passen pel seu propi algorisme a totes les llars de cada barri problemàtic. A continuació, cada departament envia les adreces classificades com a “alt risc de frau” a una base de dades central. Aquells domicilis assenyalats més d’una vegada són sotmesos a una investigació per part de funcionaris públics.

Així els agents van entrar a centenars de llars familiars inspeccionant fins als calaixos de roba interior dels inquilins només perquè una IA va dir que podien estar cometent frau. I per a eixa IA només el fet de ser mare soltera ja suposava un factor puntuable.

Què passa? Què els rics no defrauden? O és que són els rics els que creen els algorismes d’eixa IA?

Font: Ester Jordà./

Deixa un comentari

L'adreça electrònica no es publicarà. Els camps necessaris estan marcats amb *