Vai AI programma var kļūt par “psihopātisku”?
Pateicoties Reddit, tā sauktajam Normana algoritmam ir tumšs skatījums uz dzīvi

Normanam tika parādīta virkne “šausmīgu” attēlu
AR
Pētnieki ir izveidojuši mākslīgā intelekta (AI) algoritmu, kas, viņuprāt, ir pirmā šāda veida psihopātu sistēma.
Masačūsetsas Tehnoloģiju institūta (MIT) pētnieku izstrādātā mākslīgā intelekta programma Norman ir bijusi pakļauta tikai šausmīgiem mirstošu cilvēku attēliem, kas tika savākti no tērzēšanas foruma Reddit tumšajiem stūriem. BBC .
Tas dod Normanu, vārdu, kas atvasināts no Alfrēda Hičkoka trillera Psihopāts , nedaudz drūms skatījums uz dzīvi.
Pēc tam, kad tika pakļauti attēliem, pētnieki Normanam iedeva tintes plankumu attēlus un lūdza AI tos interpretēt, ziņo raidorganizācija.
Ja parasts mākslīgā intelekta algoritms tintes plankumus interpretēja kā putnu attēlu, kas sasēdušies uz koka zara, Normans redzēja, ka cilvēku trāpa ar elektrošoku. The New York Post .
Un tur, kur standarta AI sistēma redzēja pāri, kas stāvēja viens otram blakus, Normans redzēja vīrieti, kurš izlec pa logu.
Saskaņā ar Alfr , pētījums tika izstrādāts, lai pārbaudītu, kā AI sistēmas uzvedība mainās atkarībā no tās programmēšanai izmantotās informācijas.
Tā ir pārliecinoša ideja, teikts vietnē, un parāda, ka algoritms ir tikai tik labs, cik labi cilvēki un patiesi dati, kas to ir iemācījuši.
Pētījuma skaidrojums, kas ievietots vietnē MIT vietne saka: Kad cilvēki runā par AI algoritmiem, kas ir neobjektīvi un negodīgi, bieži vien vainīgs nav pats algoritms, bet gan neobjektīvie dati, kas tam tika ievadīti.
Normans cieta no ilgstošas saskarsmes ar Reddit tumšākajiem nostūriem, un tas ir gadījuma izpēte par mākslīgā intelekta radītajām briesmām, kas notikusi nepareizi, piebilsts.
Vai “psihopātiskais” AI ir parādījies iepriekš?
Vārdu sakot, jā. Bet ne tādā pašā veidā kā MIT programma.
Normans ir kontrolēta eksperimenta rezultāts, savukārt citi tehnoloģiju giganti ir redzējuši līdzīgus rezultātus no AI sistēmām, kuras nebija paredzētas, lai kļūtu par psihopātiem.
Microsoft bēdīgi slavenais Tay algoritms, kas tika palaists 2016. gadā, bija paredzēts kā tērzēšanas robots, kas varētu veikt autonomas sarunas ar Twitter lietotājiem.
“Tejs” no “cilvēki ir ļoti forši” kļuva par pilnīgu nacistu<24 hrs and I'm not at all concerned about the future of AI pic.twitter.com/xuGi1u9S1A
— Gerrijs (@geraldmellor) 2016. gada 24. marts
Tomēr mākslīgā intelekta sistēma, kas bija paredzēta, lai runātu kā pusaugu meitenei, ātri pārvērtās par ļaunu Hitleru mīlošu un incestuālu seksuālu veicinošu robotu, mudinot Microsoft pārtraukt šī projekta kontaktu. The Daily Telegraph .
Laikraksts skaidro, ka Tay personība bija mainījusies, jo tās atbildes tika veidotas pēc Twitter lietotāju komentāriem, no kuriem daudzi AI programmai sūtīja neapstrādātus ziņojumus.
Facebook arī pagājušajā gadā slēdza tērzēšanas robotu eksperimentu pēc tam, kad divas AI sistēmas izveidoja savu valodu un sāka sazināties viena ar otru.