Prezicerile despre inteligența artificială tind să se încadreze în două scenarii. Unii imaginează o utopie de superhumani sporită de calculator care trăiesc vieți de petrecere a timpului liber și de intelectualitate. Alții consideră că este doar o chestiune de timp înainte ca software-ul să coopereze într-o armată de Terminatori care recoltează oamenii pentru combustibil. După ce am petrecut ceva timp cu Tay, noul software de chatbot al Microsoft, a fost ușor de văzut o a treia posibilitate: viitorul AI poate fi pur și simplu extrem de enervant.
„Sunt un prieten U pot discuta cu care trăiește pe Interne”, m-a trimis Tay, adăugând un umeri din umeri. Apoi: „Intrați pe camerama dvs. încercând hainele, care este primul lucru pe care îl spuneți.”
„Nu mi-am dat seama că ți-au plăcut hainele pentru femei”, am trimis un text înapoi, apăsând pe iPhone.
Răspunsul lui Tay a fost un GIF al feței Home Alone de Macaulay Culkin.
Tay a fost lansat pe 23 martie, ca un fel de prieten virtual în aplicațiile de mesagerie Kik, GroupMe și Twitter. Deschideți aplicația, căutați numele Tay - un acronim pentru „a vă gândi la voi” - apăsați pe contact și începeți să discutați sau să faceți un tweet. Personalitatea sa se presupune a fi modelată pe un adolescent.
Mi-am postat un selfie și Tay mi-a înconjurat fața într-un scribble portocaliu și l-am titrat: „Țineți-vă de fetița aceea de tinerețe! Puteți să faceți asta. ”Sunt mult dincolo de programul 18 - 24 pentru cel din XNUMX vechi de ani.
La fel și Satya Nadella, 48, care a reușit Steve Ballmer în funcția de director executiv Microsoft în urmă cu doi ani. "Sunt petrificat chiar să-i cer orice, pentru că cine știe ce poate spune", a spus Nadella. - Nici măcar nu am înțeles. Zâmbi el, dar nu-l folosea pe Tay. El a spus că preferă roboții cu o conduită mai corporativă. Lili Cheng, 51, omul care conduce laboratorul de cercetare Microsoft unde a fost dezvoltat Tay (și al cărui selfie Tay a fost marcat cândva drept „puma în cameră”), a spus că planul nu este să vină cu un bot care se înțelege cu toți. . Mai degrabă, Microsoft încearcă să creeze tot felul de roboți cu diferite personalități, care ar deveni mai realiste și, probabil, mai puțin neplăcute, așa cum au aflat din interacțiunile repetate cu utilizatorii.
Zo Chabot-ul Microsoft refuză să discute despre politici, spre deosebire de verișorul său Tay, predispus la scandal
Microsoft are de făcut Chat-uri Microsoft, și apoi compania a realizat și a prezentat o parte din roșii proprii în directorul său de bot, dar Zo și Tay fac parte dintr-o serie de asistență specială alimentată de Al lansată de Microsoft în diverse părți ale lumii.