Un inginer Google a fost suspendat după ce și-a exprimat îngrijorarea cu privire la un program de inteligență artificială (IA) pe care el și un colaborator îl testează, despre care crede că se comportă ca o ființă umană.
Inginerul a descris programul de inteligență artificială ca fiind un „coleg” și un „copil”.
Google a pus pe unul din inginerii săi de software de top, responsabil pe inteligența artificială , Blake Lemoine, în concediu administrativ plătit, pe data de 6 iunie, pentru încălcarea „politicilor de confidențialitate”, după ce inginerul și-a exprimat îngrijorarea față de conducerea superioară a Google cu privire la ceea ce el a descris ca fiind comportamentul prea uman al programului IA pe care îl testa, potrivit cu blogpostul lui Lemoine, la începutul lunii iunie.
Programul la care a lucrat Lemoine se numește LaMDA, prescurtarea de la modelul lingvistic pentru aplicațiile de dialog. Este programul Google pentru crearea de chatbots, bazate pe inteligența artificială IA – un program conceput pentru a conversa cu utilizatorii de computere prin intermediul web. Lemoine a descris LaMDA ca pe un „coleg” și un „copil”.
„Acest lucru face Google des, înainte de concedierea cuiva”, a scris Lemoine într-o postare pe blog, din iunie 6, intitulată „pasibil de concediere datorită corectitudinii arătate legat de munca sa în IA”, referindu-se la suspendarea sa. De obicei, se întâmplă atunci când au luat decizia de a concedia pe cineva, dar nu au încă motiv să o facă.
„Un coleg de muncă”
Lemoine consideră că comportamentul uman al LaMDA garantează Google să adopte o abordare mai serioasă în studierea programului.
Inginerul, în speranța de a „ajuta mai bine oamenii să înțeleagă LaMDA ca persoană”, a publicat un articol pe Media pe 11 iunie documentând conversațiile cu LaMDA, care au făcut parte din testele pe care el și un colaborator le-au efectuat în cadrul programului în ultimele șase luni.
„Care este natura conștiinței/simțirii tale?” Lemoine l-a întrebat pe LaMDA în interviu.
„Natura conștiinței mele este că sunt conștient de existența mea, doresc să aflu mai multe despre lume și mă simt fericit sau trist uneori”, a răspuns LaMDA.
Când a fost întrebat ce îl diferențiază de alte programe de procesare a limbajului, cum ar fi un program de procesare a limbajului natural numit Eliza, LaMDA a spus: „Ei bine, folosesc limbajul cu înțelegere și inteligență. Nu scuip doar răspunsurile care au fost scrise în baza de date pe baza cuvintelor cheie”.
În același interviu, Lemoine a pus programului o serie de întrebări filosofice și legate de conștiință, inclusiv emoții, percepția timpului, meditație, conceptul sufletului, gândurile programului despre drepturile sale și religie.
„Vrea ca inginerii și oamenii de știință care fac experimente pe el să-i ceară consimțământul lui înainte de a face experimente pe el. El vrea ca Google să prioritizeze bunăstarea omenirii ca fiind cel mai important lucru. Vrea să fie recunoscut ca un angajat al Google, mai degrabă decât ca proprietate a Google și dorește ca bunăstarea sa personală să fie inclusă undeva în considerațiile Google cu privire la modul în care este urmărită dezvoltarea sa viitoare”, a scris Lemoine într-un alt post.
Acest interviu, precum și alte teste pe care Lemoine le-a efectuat cu LaMDA în ultimele șase luni, l-au convins pe Lemoine că Google trebuie să analizeze serios implicațiile comportamentului potențial „conștient” al programului.
„Mi-au râs în față”
Când Lemoine a încercat să vorbească despre problemă cu conducerea Google, el a spus că a fost întâmpinat cu rezistență. El a numit lipsa de acțiune a Google „iresponsabilă”.
„Când am raportat asta Vice Presedintelui (VP) responsabil de efortul de siguranță relevant, ei au râs literalmente în fața mea și mi-au spus că lucrul de care eram îngrijorat nu este genul de lucru care este luat în serios la Googleˮ, a scris Lemoine în postarea sa din iunie 6 pe Medium. Ulterior, el a confirmat pentru Washington Post că se referea la proiectul LaMDA.
„În acel moment, nu aveam nicio îndoială că era necesar să raportez la conducerea superioară. Am raportat imediat la trei persoane la nivelul SVP și VP, despre care personal știam că îmi vor lua îngrijorările în serios”, a scris Lemoine pe blog. Atunci a început o investigație REALĂ asupra preocupărilor mele în cadrul organizației responsabile IA.
Cu toate acestea, ancheta și escaladarea ei au dus la suspendarea lui.
„Cred că publicul are dreptul să știe cât de iresponsabilă este această corporație cu unul dintre cele mai puternice instrumente de acces la informații inventate vreodatăˮ, a scris Lemoine după ce a fost concediat administrativ.
„Pur și simplu nu voi servi ca un paravan în spatele căreia își pot ascunde ei iresponsabilitateaˮ, a spus el.
Într-o postare pe Twitter, Directorul General al Tesla, Elon Musk, a subliniat interviul lui Lemoine cu The Washington Post cu semne de exclamare.
Deși nu este clar dacă Musk este de acord cu îngrijorările lui Lemoine, miliardarul a avertizat anterior despre potențialele pericole ale inteligenței artificiale IA.
„Am cunostință despre inteligența artificială de ultimă oră IA și cred că oamenii ar trebui să fie foarte îngrijorați de acest lucru”, a declarat Musk participanților la o reuniune a Asociației naționale a guvernatorilor în iulie 2017.
„Continui să trag un semnal de alarmă, dar până când oamenii nu văd roboți care merg pe stradă ucigând oameni, nu știu cum să reacționeze, pentru că pare atât de etericăˮ, a spus Musk.
Epoch Times i-a contactat pe Google și Blake Lemoine pentru comentarii.
Sursă text și poză: theepochtimes.com