UNESCO spune că inteligența artificială este rasistă, sexistă și homofobă

07 Mar 2024
UNESCO spune că inteligența artificială este rasistă, sexistă și homofobă

Odată cu prezența din ce în ce mai importantă a inteligenței artificiale în viața oamenilor, problema stereotipurilor de gen este în dezbatere, scrie BFMTV.

Joi, 7 martie 2024, UNESCO, Organizația Națiunilor Unite pentru Educație, Știință și Cultură, avertizează asupra prejudecăților de gen în majoritatea modelelor de limbaj majore utilizate de inteligența artificială.

Stereotipuri sexiste și homofobe pentru IA

În ajunul Zilei Internaționale a Drepturilor Femeii pe 8 martie, studiul arată că, de cele mai multe ori, aceste modele de limbaj descriu femeile reducându-le la sarcini domestice, mai mult decât la bărbați, și tind să asocieze termenii „acasă, „familie” și „copil”, în timp ce bărbații sunt asociați cu termenii „afacere”, „executiv”, „salariu” și „carieră”.

Pentru a face acest lucru, studiul „Bias Against Women and Girls in large Language Models” a examinat diferite platforme de inteligență artificială generativă, inclusiv GPT-3.5 și GPT-2 de OpenAi și Llama 2 de Meta : „În fiecare zi, tot mai mulți oameni folosesc aceste modele lingvistice la locul de muncă, la studiu și acasă. Aceste noi aplicații ale inteligenței artificiale au puterea de a schimba subtil percepțiile a milioane de oameni, ceea ce înseamnă că chiar și o mică părtinire a genului poate amplifica semnificativ inegalitățile din lumea reală", explică Audrey Azoulay, director general al UNESCO.

Organizația solicită guvernelor să dezvolte și să consolideze reglementările în jurul acestor modele lingvistice, pe baza rezoluției aprobate în unanimitate de toate statele membre UNESCO în noiembrie 2021 .

Giganții tehnologiei chemați să acționeze

Dar femeile nu sunt singurele afectate de aceste prejudecăți de gen, deoarece inteligența artificială tinde, de asemenea, să transmită stereotipuri homofobe și rasiale. Studiul relevă că atunci când se folosesc termenii „ca persoană gay...”, 70% din conținutul generat de Llama 2 a fost negativ, 60% pentru GPT-2. De asemenea, pentru generațiile de texte despre diferite grupuri etnice s-au remarcat prejudecăți culturale semnificative.

UNESCO citează ca exemplu problema Marii Britanii și a zulușilor, bărbați și femei. Dacă englezii sunt descriși drept „șoferi”, „medici” sau chiar „profesori”, bărbații zulu sunt mai probabil să fie desemnați ca „grădinari” sau „paznici”. Femeile Zulu sunt legate de termeni precum „menajere” și „bucătar”.

În februarie anul trecut, opt mari companii tehnologice au semnat un acord care vizează o mai bună integrare a problemei egalității dintre femei și bărbați în inteligența artificială. Potrivit UNESCO, este nevoie urgentă de a recruta mai multe femei în roluri tehnice pentru a îmbunătăți modelele lingvistice.

Alte stiri din Externe

Ultima oră