Kāpēc Google ir atcēlusi savu AI ētikas padomi nedēļu pēc tās palaišanas
Darbinieku protests pret strīdīgo valdes locekli noved pie uzņēmuma apgrieziena

Google izpilddirektors Sundars Pichai
Džastins Salivans/Getty Images
Google ir likvidējusi savu mākslīgā intelekta (AI) ētikas padomi tikai nedēļu pēc tās palaišanas pēc darbinieku atbildes reakcijas.
Uzlaboto tehnoloģiju ārējā konsultatīvā padome (ATEAC), padome, kas izveidota, lai nodrošinātu atbildīgu AI attīstību meklēšanas gigantā, sastāvētu no astoņiem locekļiem, kuriem bija jātiekas četras reizes gadā, lai novērtētu bažas par Google AI produktiem, saka: Vox .
Taču gandrīz 2500 uzņēmuma darbinieku parakstīja petīciju, aicinot atstādināt padomes locekli Keju Koulu Džeimsu, konservatīvās ideju grupas Heritage Foundation prezidenti, sakarā ar viņas komentāriem par transpersonām un viņas organizācijas skepsi pret klimata pārmaiņām. saka.
Google skaidri norāda, ka tās ētikas versija vērtē tuvumu varu pār transpersonu, citu LGBTQ personu un imigrantu labklājību, teikts petīcijā. Šāda nostāja ir tiešā pretrunā Google noteiktajām vērtībām.
Lūgumraksta turpinājumā teikts, ka iespējamais mākslīgā intelekta radītais kaitējums nav vienmērīgi sadalīts un seko vēsturiskiem diskriminācijas un izslēgšanas modeļiem. Tajā apgalvots, ka ir gadījumi, kad mākslīgais intelekts nav atpazinis transpersonas, atzinis sievišķīgākas balsis vai redzējis krāsainas sievietes.
Google sākotnēji teica, ka ATEAC piedāvās dažādas perspektīvas, The Guardian ziņojumi. Kopā ar Džeimsu padomē bija matemātikas eksperti, privātuma pētnieks, dronu kompānijas izpilddirektors un bijušais ASV diplomāts.
Uzņēmuma vadītājs Sundars Pichai paziņoja par plāniem izveidot ētikas padomi pagājušajā gadā, kad atklājās, ka tehnoloģiju uzņēmums piedalās Pentagona bezpilota lidaparātu projektā, kurā tika izmantoti dati no Google AI pētījuma. The Verge ziņojumi.
Google pagājušajā vasarā nolēma pārtraukt darbu pie strīdīgā bezpilota lidaparātu projekta un apņēmās nekad nestrādāt pie projektiem, kuros mākslīgais intelekts varētu tikt izmantots kā ierocis vai kas pārkāpj starptautiski pieņemtas normas, piebilst tehnoloģiju vietne.
Uzņēmuma pārstāvis vietnei pastāstīja, ka ir kļuvis skaidrs, ka pašreizējā vidē ATEAC nevar darboties tā, kā mēs vēlējāmies.
Mēs beidzam padomi un atgriežamies pie rasēšanas dēļa, piebilda pārstāvis. Mēs turpināsim būt atbildīgi savā darbā pie svarīgajiem AI izvirzītajiem jautājumiem un atradīsim dažādus veidus, kā iegūt ārējos viedokļus par šīm tēmām.