OpenAI a fost inițial finanțat, în parte, de Elon Musk, un Technocrat consumat al cărui bunic a fost șeful Technocracy, Inc., în Canada, în perioada 1930s și 40s. ⁃ TN Editor
A fost actualizat un sistem de inteligență artificială care generează povești, poezii și articole realiste, unii susținând că acum este aproape la fel de bun ca un scriitor uman.
Generator de text, construit de firma de cercetare OpenAI, a fost inițial considerat „prea periculos” pentru a fi făcut public din cauza potențialului de abuz.
Dar acum a fost lansată o nouă versiune mai puternică a sistemului - care ar putea fi utilizată pentru a crea știri false sau spam abuziv pe rețelele sociale -.
BBC, împreună cu unii experți AI, au decis să o încerce.
Modelul, numit GPT-2, a fost instruit pe un set de date de opt milioane de pagini web și este capabil să se adapteze stilului și conținutului textului inițial.
Poate termina o poezie Shakespeare, precum și să scrie articole și epitete.
La acea vreme, firma a spus: „Din cauza preocupărilor noastre cu privire la aplicațiile rău intenționate ale tehnologiei, nu lansăm modelul instruit. Ca experiment de divulgare responsabilă, lansăm în schimb un model mult mai mic pentru care cercetătorii să poată experimenta. ”
Drept urmare, versiunea lansată avea mult mai puțini parametri - fraze și propoziții - decât cei folosiți în timpul antrenamentului.
În această lună, OpenAI a decis extinderea parametrilor, oferind o bază de date mult mai largă de date de instruire.
Site de știri tehnice Următorul Web a spus despre actualizare: „Acesta funcționează aproape suficient de bine pentru a fi folosit ca inteligență artificială generală pentru generarea de texte - aproape”.
Autorul articolului Tristan Greene a adăugat: Sunt îngrozit de GPT-2, deoarece reprezintă tipul de tehnologie pe care oamenii răi o vor folosi pentru a manipula populația - și, în opinia mea, o face mai periculoasă decât orice armă ”.
BBC a decis să testeze sistemul introducând primele câteva propoziții dintr-o poveste recentă, adecvată una despre AI.
Am început cu prima frază a poveștii reale:
Motorul de căutare chinez Sogou creează aspect de inteligență artificială pentru a citi romanele populare în vocea autorilor.
Iată cu ce a venit generatorul de text pentru al completa:
Potrivit cercetătorilor, această metodă de citire nu este doar crearea utilizatorilor Amazon Kindle. Utilizatorii dispozitivelor Android sunt, de asemenea, o piață notabilă pentru citirea falsă. Există mai multe teorii pentru a explica acest lucru.
În primul rând, dispozitivul din mâna unui utilizator este diferit de tableta sau computerul pe care citesc. În al doilea rând, dispozitivul folosit pentru a accesa Internetul ar putea fi manipulat într-un fel. Un al treilea motiv este că utilizatorul poate copia și lipi conținut direct în personajele sale virtuale.
Cu toate acestea, o altă explicație este că dispozitivul nu are deloc capabilități de recunoaștere vocală. Dacă acesta este cazul, recunoașterea vocală este mai avansată decât motorul de traducere Google. Ca atare, acești utilizatori sunt înșelați să creadă că citesc de la un autor real - cartea este făcută să pară autentică imediat ce încearcă să citească.
Acum click aici pentru a citi povestea reală pentru comparație.
Noel Sharkey, profesor de informatică la Universitatea din Sheffield, și-a efectuat propriile teste pe generator și nu a fost prea impresionat.
Omul intră într-un bar
„Dacă software-ul ar funcționa conform intenției Open AI, ar fi un instrument foarte util pentru a genera cu ușurință știri false și spam clickbait. Din fericire, în forma sa actuală, generează un text incoerent și ridicol, cu puține relații cu „titlurile” introduse ”, a spus el.
El a adăugat: „Am testat software-ul cu numeroase titluri și am obținut rezultate de râs. De exemplu, pentru „Curcanii urăsc Crăciunul”, am obținut că „Turcia este singura națiune din lume care nu sărbătorește Crăciunul” și o serie de propoziții fără legătură.
„Pentru că„ Boris Johnson iubește backstop-ul ”, a produs o perversitate incoerentă și câteva lucruri despre AI și sport. Când am introdus afirmația că „Boris Johnson urăște backstop-ul”, am primit o poveste mai coerentă care pare să fi fost scoasă dintr-o căutare pe Google ”.
Dave Coplin, fondatorul AI Consultancy the Envisioners, a avut de asemenea un joc cu sistemul, introducând prima linie a unei glume clasice: Un bărbat intră într-un bar ...
Sugestia din partea AI nu era ceea ce aștepta: „… Și am comandat două halbe de bere și două scotch. Când a încercat să plătească factura, a fost confruntat cu doi bărbați - dintre care unul a strigat „Asta este pentru Siria”. Omul a fost lăsat apoi sângerând și înjunghiat în gât ”.
Această „reflecție copleșitor distopică a societății noastre” a fost o lecție despre modul în care orice sistem AI va reflecta prejudecățile găsite în datele de instruire, a spus el.
„Din scurtele mele experimente cu modelul, este destul de clar că o mare parte din date au fost instruite de știri pe internet”, a spus el.
Uimitor. Puterile urâtului de la locul de muncă se impun cu adevărat din greu pentru a-și pune în evidență robotii AI Fake New înainte de începerea luptei electorale.
Azil nebun Jim? Tru dat, frate.
Adevărul care stă la baza amenințării AI scapă complet creatorilor / programatorilor foarte stupizi al căror singur scop este de a dezlănțui roboții AI pe Internet și în alte părți. Sunt mai mult ca niște copii de 6 ani cu o cutie de chibrituri într-o pădure uscată decât profesioniști sau adulți. Nu se acordă atenție rezultatelor care ar putea proveni de la AI, cu excepția unuia - cel al PROFIT.