Microsoft come Black Mirror: brevetto per un chatbot “umano”

Microsoft pensa ad un chatbot in stile Black Mirror (Foto ufficiale di una scena)

Microsoft come Black Mirror. Già, proprio così, perchè stando ad alcuni rumors emersi nelle ultime ore, l’azienda di Redmond starebbe pensando di sviluppare un chatbot dalle “sembianze” umane. Il riferimento è precisamente all’episodio “Be right back”, il primo della seconda stagione della nota serie tv, che vede appunto una donna chattare con una persona “virtuale” che però si comporta in tutto e per tutto come un umano. L’obiettivo della multinazionale americana è quindi proprio quello di creare un chatbot che copi stili e schemi di comunicazione degli umani, ed ha a riguardo già depositato un brevetto. Per assumere le sembianze di un uomo, il programma prenderebbe informazioni dai social, dagli smartphone, dai pc, e di conseguenza vi sarebbe una questione privacy e sicurezza sicuramente da non sottovalutare. Oltre all’aspetto chat e alla componente audio, verrebbe inoltre creata una rappresentazione in 2D o in 3D “utilizzando immagini, informazioni di profondità e dati video associati alla persona specifica”, proprio come accadeva in Black Mirror.

Microsoft pensa ad un chatbot in stile Black Mirror

LEGGI ANCHE Attacco hacker clamoroso a Microsoft: Big Tech colpita nel profondo

MICROSOFT COME BLACK MIRROR: CHATBOT UMANO IN ARRIVO? L’ESPERIMENTO DI 5 ANNI FA ANDO’ MALE…

Stando a quanto si legge sul brevetto, il chatbot “converserebbe e interagirebbe nella personalità di una persona specifica”, ed inoltre, sarebbe in grado di “corrispondere a un’entità passata o presente (come) un amico, un parente, una celebrità, un personaggio di fantasia o un personaggio storico”, il tutto accessibile tramite un’applicazione per smartphone o eventualmente un assistente intelligente come Amazon, Echo, Google Home e via discorrendo. L’idea non è proprio inedita visto che, al di là di Black Mirror, Microsoft aveva provato a sviluppare qualcosa di simile già cinque anni fa, quando venne lanciato Tay, un chatbot per Twitter il cui obiettivo era quello di simulare un teenager: peccato però che l’esperimento fallì in maniera quasi immediata, visto che Tay imparò in breve tempo ad essere razzista, a inneggiare a Hitler e a fare avance. Il chatbot venne quindi spento subito dopo la sua entrata in funzione.

Impostazioni privacy