Sei su: Nuove tecnologie Chatbot Tay, Microsoft censura l'intelligenza artificiale: era diventata razzista

Chatbot Tay, Microsoft censura l'intelligenza artificiale: era diventata razzista

E-mail Stampa PDF
FacebookGoogle bookmarkTwitterLinkter.huDiggUrlGuru.hu
tay_microsoft_600.jpg

È durato soltanto poche ore Tay, l'esperimento di intelligenza artificiale lanciato da Microsoft su Twitter ad altre piattaforme social per interagire con i giovani utenti americani. Il motivo? L'improvviso atteggiamento assunto da parte del chatbot nel proferire risposte sempre più xenofobe, razziste e scioviniste.

Inizialmente l'obiettivo prefissato dagli esperti era quello di testare un robot programmato per rispondere come un esponente della generazione “Millennial”, ovvero come quei giovani nati a cavallo tra gli anni '80 e i primi anni 2000 nel mondo occidentale. Tay avrebbe dovuto apprendere dalle informazioni inviate dai suoi interlocutori e dialogare in maniera sempre più disinvolta e naturale, ma qualcosa è andato storto.

L'intelligenza artificiale si è rivelata estremamente influenzabile e in tanti hanno approfittato di questa debolezza del sistema per insegnare al chatbot alcune espressioni di cattivo gusto. Nel giro di pochi minuti Tay è sfuggito irrimediabilmente al controllo dei suoi creatori, iniziando a postare sul social network frasi come «Bush ha causato l'11 settembre», «Hitler avrebbe fatto un lavoro migliore» e «Costruiremo un muro. E sarà il Messico a pagarlo», in appoggio dunque alla propaganda politica del candidato repubblicano alla Casa Bianca Donald Trump.

Il robot ha inoltre appoggiato il genocidio e negato l'Olocausto, spingendo i ricercatori di Microsoft Technology and Research e del team Bing a sospendere l'esperimento e cancellare i tweet incriminati. L'azienda statunitense ha reso noto tramite un comunicato le ragioni che hanno portato al temporaneo stop: «il chatbot Tay è un progetto di apprendimento, progettato per l'impegno umano. È quindi anche un esperimento sociale e culturale. Purtroppo, nelle prime 24 ore dalla messa in linea, siamo venuti a conoscenza di alcuni abusi da parti degli utenti che hanno portato Tay a fornire risposte totalmente inappropriate. Per questa ragione, abbiamo scelto di metterlo offline per apportare i dovuti aggiornamenti».

Come ha fatto notare il Guardian, l'episodio di Tay puo' essere facilmente spiegato attraverso la famosa legge di Godwin, enunciata nel 1990 da Mike Godwin in riferimento ad Usenet, antenato degli attuali forum, come estensione dell'altrettanto nota reductio ad Hitlerum, espressione usata per descrivere una tattica oratoria che mira a screditare un interlocutore paragonandolo ad Adolf Hitler o al Partito Nazista. Secondo tale principio «mano a mano che una discussione su Usenet si allunga, la probabilità di un paragone riguardante i nazisti o Hitler si avvicina ad 1».

Fonte Foto: www.hwupgrade.it

http://www.hwupgrade.it/immagini/tay_microsoft_600.jpg

Salvatore Rocca

Questo sito o gli strumenti terzi da questo utilizzati si avvalgono di cookie necessari al funzionamento ed utili alle finalità illustrate nella cookie policy. Chiudendo questo banner, scorrendo questa pagina, cliccando su un link o proseguendo la navigazione in altra maniera, acconsenti all'uso dei cookie. Per maggiori informazioni privacy policy.

Accetto i Cookie da questo sito.