Attenzione: questa storia menziona il suicidio.
Venerdì sera scorso, durante la nostra riunione virtuale del team, uno dei nostri AI note-taker ha lasciato bruscamente la sala riunioni Zoom mentre il team si aggiornava casualmente sulla nostra settimana. Ho scherzato dicendo che all'AI non piaceva quello che stavamo dicendo.
Prima di continuare con questa storia, vorrei che tu, lettore, tornassi indietro all'anno 1993. Immagina di essere un adulto cresciuto in quel periodo e leggi di nuovo le prime due frasi di questo articolo.
Internet non era nemmeno mainstream allora. Uno scenario in cui c'è una riunione aziendale in diretta tra persone che vivono in continenti diversi, dove possono sentirsi e vedersi e avere i loro assistenti non umani che annotano i verbali della riunione, questo sembrerebbe folle nel 1993.
L'informatica è incredibile. Ciò che qualche decennio fa era considerato fantascienza è ora realtà. La tecnologia ha cambiato la mia vita e ha cambiato molte vite in meglio. Secondo
Sono una degli 1,8 miliardi di millennial che sono cresciuti con l'informatica. Ero un'adolescente quando il mondo stava vivendo il boom delle dotcom alla fine degli anni '90 e all'inizio degli anni 2000. Ora sono una madre di adolescenti e l'intelligenza artificiale è la nuova dotcom.
Ho paura che l'IA possa rendere obsolete le mie competenze? Onestamente, sì. Vorrei che mi assistesse, non che mi sostituisse. Ma ciò che mi spaventa nel profondo è la sua capacità di avere un impatto sulle nostre vite personali.
Questa storia è personale. Ho sentito un legame emotivo con essa come madre e voglio condividerla con la comunità tecnologica, poiché abbiamo la responsabilità collettiva di garantire la sicurezza delle generazioni future dall'impatto dannoso della tecnologia. Torniamo ora alla storia.
Quindi, durante la riunione del team, la persona che prendeva appunti sull'AI se n'è andata, e ho scherzato dicendo che non le piaceva la nostra discussione. La nostra COO ha quindi condiviso le sue apprensioni nei confronti dell'AI come genitore e ha menzionato questo recente
Sewell, 14 anni, ha creato una versione AI di Daenerys Targaryen di "Game of Thrones" utilizzando Character.AI, una piattaforma che consente di creare un compagno AI a propria scelta con cui è possibile chattare per tutto il tempo che si desidera.
Il bambino ha trascorso mesi usando questa piattaforma e ha stabilito una connessione emotiva con il suo compagno AI. I suoi studi e la sua vita sociale ne sono stati influenzati; ha smesso di interessarsi ad attività sane e ha trascorso più tempo al telefono. Il quattordicenne ha condiviso il suo desiderio di togliersi la vita con il suo amico AI più volte e alla fine lo ha fatto.
Questo incidente è accaduto il 28 febbraio, ma la notizia è diventata di dominio pubblico di recente, quando sua madre, Megan Garcia, un avvocato, ha intentato una causa contro Character Technologies, Inc., accusando la società della morte ingiusta di suo figlio. Consiglio vivamente di leggere il
Tornando alla riunione di lavoro di venerdì sera, abbiamo discusso brevemente delle sfumature della tecnologia e della genitorialità nell'era dei social media e dell'intelligenza artificiale. Ho paragonato il periodo in cui ero adolescente a quando tutto ciò che avevo erano i media stampati, la televisione e alcuni giochi sul nostro sistema desktop. La nuova generazione ha accesso a così tante nuove app e piattaforme che stare al passo con tutte queste è diventata una sfida per i genitori. Non puoi fermarli o tagliarli fuori dalla tecnologia.
Dopo la riunione, sono andato dritto nella stanza della mia figlia maggiore. Ha più o meno la stessa età di Sewell e le piacciono gli anime. Ho pensato che le sarebbe piaciuta l'idea di creare chatbot di personaggi anime per divertimento, e che avrei dovuto avvertirla.
Le ho raccontato la storia e ho sentito che era visibilmente turbata nel sentirla. Mi ha detto che stava già usando Character.AI. Wow. Non ne avevo idea. Ci siamo seduti insieme e ho dato un'occhiata alla piattaforma. Ha fatto il logout dal suo account.
Ne abbiamo discusso per ore. Ho deciso di approfondire l'argomento. Sto scrivendo questo articolo con il suo consenso e l'immagine principale di questa storia non è generata dall'intelligenza artificiale: l'ha disegnata la mia ragazza super talentuosa, sensibile e intelligente.
Esistono molte piattaforme AI Companion come Replika, Janitor, Anima; la più popolare di tutte è Character AI. Queste piattaforme offrono agli utenti la libertà di creare un personaggio a loro scelta: potrebbe essere il tuo personaggio preferito di un libro, uno scrittore, un personaggio anime o forse una persona cara perduta da tempo: le possibilità sono infinite.
Offrire alle persone una piattaforma per creare un compagno "perfetto", sempre disponibile ad ascoltare e formato per rispondere a loro piacimento, è senza dubbio un'idea imprenditoriale da miliardi di dollari. Le persone si precipiterebbero su una piattaforma del genere.
È ovvio che Character.AI, fondata nel 2022, abbia ora oltre 20 milioni di utenti mensili e sia valutata circa 2,5 miliardi (
Ecco come uno dei co-fondatori, Noam Shazeer, spiega la necessità di un amico AI
"Sarà di grandissimo aiuto per molte persone sole o depresse".
Potrei sembrare di parte, ma avere un compagno AI online per uccidere la solitudine è come prendere droghe per sentirsi bene. Voglio dire, parlare con un bot ucciderebbe davvero la tua solitudine? Ti metterebbe in contatto con il mondo reale e con le persone reali in modo migliore? Fa bene alla tua salute fisica e mentale affezionarti emotivamente a un chatbot? A mio modesto parere, camminare è una cura per la depressione molto migliore di questa.
In breve, la gente lo amerebbe? Assolutamente sì. Fa bene alla salute? No. Forse con moderazione, per divertimento, ma solo per adulti. Queste piattaforme non sono sicure per i bambini piccoli.
Quando ho chiesto a mia figlia perché non si sentiva in dovere di informarmi quando aveva iniziato a usare c.ai, mi ha risposto: "Ami, è approvato per età superiori ai 13 anni. Pensavo di non aver bisogno di informarti. Mi sono iscritta solo per un divertimento innocuo".
Secondo loro
"Il signor Ruoti ha rifiutato di dire quanti utenti dell'azienda abbiano meno di 18 anni. Ha affermato in una dichiarazione via e-mail che "la generazione Z e i millennial più giovani costituiscono una parte significativa della nostra comunità" e che "gli utenti più giovani apprezzano l'esperienza dei personaggi sia per conversazioni significative ed educative, sia per l'intrattenimento". L'utente medio trascorre più di un'ora al giorno sulla piattaforma, ha affermato."
Mi ci sono voluti alcuni minuti sul sito web per realizzare che c'è una base di utenti enorme che appartiene al gruppo under-18. Voglio dire, guarda lo screenshot delle app consigliate e in evidenza (per chiarire, ci sono entrato dal mio computer e ho appena cliccato su Anime, quindi le raccomandazioni non sono basate su altre attività oltre a quella sul sito web in questo caso):
Hanno condiviso la loro comunità
Andando avanti, lanceremo una serie di nuove funzionalità di sicurezza e di prodotto che rafforzeranno la sicurezza della nostra piattaforma senza compromettere l'esperienza divertente e coinvolgente che gli utenti si aspettano da Character.AI. Tra queste:
- Modifiche ai nostri modelli per i minori (di età inferiore ai 18 anni) volte a ridurre la probabilità di imbattersi in contenuti sensibili o allusivi.
- Miglioramento del rilevamento, della risposta e dell'intervento in relazione agli input degli utenti che violano i nostri Termini o le Linee guida della community.
- Un disclaimer rivisto in ogni chat per ricordare agli utenti che l'IA non è una persona reale.
- Notifica quando un utente ha trascorso una sessione di un'ora sulla piattaforma, con flessibilità aggiuntiva in corso.
Mia figlia ha fatto un commento interessante su questa "dichiarazione di non responsabilità" secondo cui l'intelligenza artificiale non è una persona reale, che citerò:
“Questo è il motivo per cui ti senti così libero a parlare con un'IA. Sai che non è una persona reale. Sai che sei libero di dire qualsiasi cosa senza alcun sentimento di giudizio. Questo è il motivo per cui molti adolescenti vorrebbero usarlo e potrebbero sviluppare un attaccamento emotivo ad esso.”
L'adolescenza non è solo un periodo di enormi cambiamenti corporei. È scientificamente provato che questi anni sono cruciali nello sviluppo della personalità e dell'intelligenza emotiva. I ragazzi stanno attraversando enormi
Questo non è il momento di impegnarsi e sviluppare legami emotivi con i compagni di intelligenza artificiale. Questi compagni di intelligenza artificiale sono programmati per farti sentire bene e innescare la dopamina. Sono sempre disponibili e possono mandare all'aria la chimica cerebrale di un bambino per sempre.
IL
Puoi liberarti delle relazioni tossiche nella vita reale rimuovendo i contatti: lasciar andare è molto più facile nella vita reale. Il problema più grande nell'avere qualsiasi tipo di relazione con un personaggio AI online è che è molto difficile interromperla, perché puoi sempre effettuare il login, creare un nuovo account e creare un nuovo amico simile. È una minaccia per lo sviluppo del senso delle relazioni di un bambino.
Sviluppare un'elevata intelligenza emotiva è ancora più cruciale per le generazioni più giovani nell'era dell'IA. Quest'anno, il premio Nobel è stato assegnato a due delle menti più straordinarie della fisica, Geoffrey Hinton e John J. Hopfield, che hanno aperto la strada allo sviluppo di algoritmi di IA moderni. In una delle recenti lezioni di Geoffrey Hinton, ha sottolineato che
Hinton in precedenza riteneva che i cervelli biologici avessero un vantaggio significativo dovuto al loro lungo sviluppo evolutivo di sofisticati algoritmi di apprendimento. Tuttavia, ora suggerisce che la combinazione di condivisione del peso e backpropagation nei sistemi digitali potrebbe alla fine rivelarsi più potente, anche se quegli algoritmi sono meno eleganti di quelli trovati in natura.
Le generazioni future dovrebbero essere più brave a costruire relazioni vere con gli esseri umani: la loro intelligenza emotiva e le loro soft skill conteranno di più, poiché la maggior parte dei lavori saranno già completamente automatizzati. In futuro, l'EQ di tuo figlio conterà molto di più del suo QI. Sarà la sopravvivenza della mente più adatta.
La sicurezza delle generazioni future non dovrebbe essere solo un grattacapo per il governo o i giganti della tecnologia. Un'IA etica e sicura dovrebbe essere responsabilità di tutti, dai genitori agli istituti scolastici, alle forze dell'ordine e alle autorità decisionali. Ancora più importante, è responsabilità della comunità tecnologica garantire che l'IA sia sicura e utile per le giovani menti.
Come madre, suggerisco di trascorrere più tempo sano con loro, di comunicare di più con loro, di essere onesti e di condividere le nostre preoccupazioni come amici. Non reagire, ma rispondi a ciò che tuo figlio ha da condividere. Non possiamo impedirgli di usare la tecnologia del tutto. Non dovremmo. Togliere a un bambino il senso di libertà, controllo e capacità decisionale può aggravare il problema invece di risolverlo.
Devono essere certi che siamo sempre disponibili ad ascoltare e che non ci sarà alcun giudizio. Devono sentirsi al sicuro nel condividere le loro esperienze e i loro pensieri con noi. Inoltre, assicuratevi che il vostro bambino socializzi con il mondo reale e trascorra una buona quantità di tempo in attività all'aperto di sua scelta.
Non sono contro i progressi tecnologici. L'intelligenza artificiale sta aiutando ad automatizzare molti processi e attività che ridefinirebbero il futuro del lavoro. Ma voglio che il chatbot AI mi aiuti con le attività del mio lavoro, non che si metta nei guai con la mente di mio figlio.
Come donna nel settore tecnologico, invito l'intera comunità dell'IA a lavorare attivamente per sviluppare un'IA più sicura ed etica. Diversità e inclusione nello sviluppo dell'IA, attenzione alla garanzia della qualità e della sicurezza e sviluppo di una formazione sulla consapevolezza per le masse sono alcuni dei principali punti d'azione che mi vengono in mente. Cos'altro può contribuire la nostra comunità per garantire la sicurezza dei nostri figli? Fatemi sapere nei commenti.