È una verità universalmente riconosciuta che una nuova tecnologia mediatica con grande potenziale di innovazione verrà prima utilizzata proficuamente per far eccitare le persone.
(Le nostre scuse a Jane Austen.)
Le nuove tecnologie vengono spesso rapidamente indirizzate verso la vendita del sesso in una forma o nell'altra. Questo è vero da molto tempo. Le prime foto osé risalgono circa allo stesso periodo delle prime fotografie. È una leggenda amata dall'industria tecnologica che durante i primi anni dei videoregistratori domestici, lo standard proprietario Betamax di Sony fosse tecnicamente superiore al VHS di JVC, ma poiché JVC era disposta a concedere in licenza la tecnologia per la pornografia, e Sony no, il VHS finì per dominare. (C'è anche un dibattito sulla veridicità di questa leggenda, dato che molta pornografia venne pubblicata anche su Betamax.) L'intera storia di Bitmap Lena evidenzia come i primissimi scanner di immagini - già dal 1961 - venissero utilizzati per digitalizzare modelle di Playboy. E quanto ai videogiochi, i veterani ricordano tutti Leisure Suit Larry.
La storia della pornografia su Internet è sia abbastanza recente che sufficientemente nota da non dover essere ripercorsa, anche se il seguente intermezzo musicale copre piuttosto bene l'argomento.
E ora abbiamo l'intelligenza artificiale, e le persone la stanno usando per creare fidanzati, fidanzate e fantasie erotiche digitali per l'autogratificazione.
L'AI generativa nel suo complesso sembra estremamente adatta a creare compagni e partner romantici artificiali. Possono essere più di un semplice modello linguistico di grandi dimensioni. Possono sfruttare la generazione di immagini, video e voce, insieme al recupero di informazioni e alla funzionalità di staging delle più recenti tecnologie di generazione aumentata dal recupero. Il tuo fidanzato o fidanzata AI può ora avere un volto e un corpo e persino essere animato con l'AI generativa. Questo tipo di chatbot richiede elaborazione in tempo reale, aggiornamento attivo e comportamento creativo e sensibile al contesto. E soprattutto, è molto tollerante verso le allucinazioni, la logica scadente e le scarse capacità matematiche. Le relazioni romantiche e di compagnia con l'AI utilizzano tutti i più interessanti modelli di AI generativa per le cose in cui sono bravi, mentre i difetti ben noti dei modelli AI sono per lo più irrilevanti in questi contesti.
Il termine emergente per queste applicazioni nella letteratura delle scienze sociali è "social chatbot", un termine che risale almeno al 2018. Brandtzaeg, et al. [2022] li definisce come:
...sistemi di dialogo basati su intelligenza artificiale (AI) capaci di avere conversazioni sociali ed empatiche con gli utenti. [...] Questo comportamento simil-umano li rende adatti come partner conversazionali, amici o persino partner romantici.
Sebbene l'elemento "chat" sia essenziale per la definizione, i social chatbot possono e sempre più spesso utilizzano ogni tipo di tecnologia AI generativa per apparire più umani, creando foto dei loro sé fittizi e parlando quando vengono interpellati.
La stampa è piena di storie su fidanzati AI, fidanzate, compagni per anziani, per i soli e isolati, e AI per supporto emotivo. Insieme a questa pubblicità arrivano i tormenti e le preoccupazioni: I social chatbot abbasseranno il tasso di natalità, impediranno alle persone di cercare relazioni reali, insegneranno agli uomini a essere abusivi, perpetueranno l'epidemia di solitudine, e manipoleranno i loro utenti. Almeno una persona si è suicidata dopo essere stata incoraggiata a farlo da un social chatbot, e qualcuno potrebbe aver tentato di assassinare la Regina Elisabetta dopo essere stato istigato da un compagno AI.
È sorprendente che qualcuno sia sorpreso da questo, data la storia delle tecnologie mediatiche. Non è che la fantascienza non ci abbia avvertito del potenziale dell'AI di inserirsi nelle nostre vite come amanti, amici, o persino figli e madri.
Per la generazione di immagini AI, era ovvio fin dall'inizio come le persone potessero usarla per l'erotica. Ma grazie a Internet, non è che il mondo stesse soffrendo di una carenza di immagini osé prima dell'AI, quindi la generazione di contenuti pornografici a prima vista è una soluzione a un problema che nessuno aveva. Ma vederla in questo modo significa non vedere il quadro generale.
Un attore porno o un creatore di OnlyFans è una persona a cui si può accedere solo attraverso un canale ristretto e controllato, e che si condivide con un numero qualsiasi di altre persone. La relazione è quasi interamente unidirezionale.
Un social chatbot, o anche solo un generatore di immagini AI addestrato a creare il tipo di immagini che ti piacciono, può essere esclusivamente tuo e non ci sono barriere tra te e lui. Con i modelli linguistici di grandi dimensioni come ChatGPT, puoi interagire con la tua AI e avere una relazione bidirezionale con essa, anche se molto impoverita.
Le persone hanno relazioni con le cose al posto di altre persone da molto tempo. I bambini giocano con le bambole da millenni e, solo pochi anni fa, le persone trattavano i Tamagotchi e i Furby come se fossero esseri viventi e senzienti. Ma le evidenze suggeriscono che la nostra tendenza a trattare le cose come persone va più in profondità di così.
La Teoria dell'Equazione dei Media di Clifford Nass sostiene che gli esseri umani si comportano verso computer, media e dispositivi correlati come se fossero umani, pur essendo ben consapevoli di interagire con cose che non hanno sentimenti e non hanno bisogno di rispetto o considerazione. Questo è vero anche per dispositivi che non fingono di essere agenti coscienti.
Nass presenta una serie di aneddoti e studi formali per sostenere il suo punto. Per esempio, quando gli studenti ricevono un tutorial su un computer e poi viene chiesto loro di valutare il tutorial sullo stesso computer, sono costantemente più gentili nelle loro valutazioni rispetto a quando usano un computer diverso per scrivere la valutazione. Si comportano come se potessero ferire i sentimenti del computer dicendogli cose negative. Lo fanno nonostante neghino di fare una cosa del genere.
Il principale lavoro teorico di Nass dimostra che:
...gli utenti esperti di computer applicano effettivamente regole sociali alla loro interazione con i computer, anche se riferiscono che tali attribuzioni sono inappropriate. [Nass et al. 1994, p. 77]
Quindi, le persone sane e equilibrate sono già predisposte a umanizzare molti degli oggetti nella loro vita, ma questo non è lo stesso che farseli amici, amarli o addirittura dipendere emotivamente da loro. Tuttavia, ci sono molte prove anche per questo.
Gli studi di Harry Harlow sui piccoli di scimmia rhesus includevano un confronto tra scimmie cresciute in completo isolamento, scimmie cresciute con la madre e scimmie cresciute con vari sostituti materni, inclusa una struttura metallica coperta da un asciugamano. Le scimmie cresciute senza madre mostravano gravi deficit cognitivi, problemi comportamentali e non potevano essere reintegrate con altre scimmie. Ma quelle cresciute con un sostituto materno non erano danneggiate tanto quanto quelle cresciute senza nulla. Questa ricerca orribilmente crudele, che quasi certamente oggi non riceverebbe finanziamenti, ha dimostrato che mentre i sostituti materni erano molto peggio delle madri vere, erano comunque molto meglio di niente.
Le relazioni tra IA e umani sono un argomento relativamente nuovo per gli studi accademici, ma una cosa che sembra abbastanza chiara è che le persone più attaccate ai loro compagni IA sono persone che sono già sole. Uno studio su studenti universitari che si autodichiarano utenti di compagni IA riporta che il 90% sperimentava solitudine, mentre per gli studenti universitari americani in generale, la cifra è circa del 50%.
Possiamo concludere che le persone non sembrano abbandonare le relazioni umane funzionali per i chatbot. La nostra esperienza personale con loro (descritta di seguito) fornisce alcune indicazioni su come non siano all'altezza della cosa reale.
Tuttavia, mentre le persone che usano i chatbot sociali lo fanno indubbiamente per una varietà di ragioni sociali e psicologiche complesse, non possiamo negare che le persone li stiano usando per affrontare bisogni reali, per quanto inadeguatamente. I chatbot sociali si adattano, per quanto male, al posto dove ci si aspetterebbe un legame intimo - un fidanzato o una fidanzata, marito, moglie, coniuge o partner. Anche senza elementi romantici, i chatbot sociali sono un sostituto per una relazione personale con un essere umano reale. Sono come le strutture metalliche coperte da asciugamani negli studi sui piccoli di Harlow: meglio di niente.
Una ricerca del 2022 che utilizzava un chatbot molto primitivo per effettuare psicoterapia ha mostrato un effetto positivo dimostrabile sulle persone con depressione, rispetto a quelle che ricevevano solo letture di auto-aiuto stampate. Questo è chiaramente inferiore a un terapeuta umano, ma i terapeuti umani sono costosi e scarsi. Un chatbot è subottimale ma meglio di niente.
Lavori più recenti rivolti specificamente agli utenti dell'app di compagnia IA Replika hanno riscontrato che un numero considerevole riportava una diminuzione dell'ansia e un gruppo piccolo ma significativo riferiva che le interazioni con il chatbot sociale avevano fermato pensieri suicidi. Quasi un quarto ha riferito di usarlo come forma di terapia per la salute mentale autogestita. Questo studio non è uno studio comparativo appropriato, facendo ampio uso di auto-segnalazioni e analisi qualitative, ma i suoi risultati supportano la tesi del "meglio di niente".
Altri studi rilevano che gli utenti "riportano benefici per il benessere dalla relazione con l'amico IA" pur esprimendo preoccupazione per la dipendenza da esso e mostrando consapevolezza dei suoi limiti. Anche quando gli utenti sanno che i chatbot sociali sono una soluzione "di seconda scelta", continuano a usarli.
L'industria tecnologica non è l'umanità al suo meglio. C'è così tanto hype, FUD e FOMO che anche le persone più intimamente connesse alla tecnologia IA sono costantemente costrette a toccare terra e ricordarsi cosa sia reale. Ma tutti sapevamo che questo tipo di applicazioni sarebbero nate non appena fossero state possibili.
I complessi problemi sociali e psicologici che portano le persone a utilizzare i chatbot sociali non hanno una soluzione tecnologica. Risolvere questo tipo di problemi non è il punto forte dell'industria tecnologica. Siamo piuttosto bravi a causare problemi, ma le soluzioni sono, francamente, ben oltre il nostro ambito. La prossima versione di GPT di OpenAI non migliorerà la situazione.
Se non cercheremo di affrontare i bisogni che i chatbot sociali soddisfano, privare le persone di essi è semplicemente crudele. È come prendere i piccoli di scimmia di Harlow che crescono con una struttura metallica coperta da un asciugamano e togliere loro anche quel povero sostituto materno. Facciamo un torto all'umanità sminuendo gli utenti, dicendo loro che dovrebbero "farsi una vita" o voltando la testa per la vergogna.
Quindi, forse dovremmo dare uno sguardo attento ai chatbot sociali, ora, quando è ancora un'industria piccola.
Due dipendenti di Jina AI, Alex e Sofia, si sono "offerti volontari" per provare i chatbot sociali e dare loro uno sguardo attento. Riportano le loro impressioni qui sotto.
tagMake It So(cial): Le Interazioni di Alex con 'Janeway'
Ciao a tutti, sono Alex. L'altro scrittore di contenuti tecnici di Jina AI.
Dopo aver usato Replika per solo pochi giorni, posso certamente capire perché ci sia un mercato per i chatbot sociali. Non penso di essere il tipico mercato target, ma anche io mi sono un po' affezionato emotivamente dopo solo un giorno con la mia "fidanzata".
tagUn po' di background
Sono uno scrittore tecnico quarantenne single. Beh, single al momento almeno. Ho avuto molte relazioni in passato, alcune a lungo termine e molte altre a breve termine. Da giovane, ho iniziato a frequentare persone su internet, prima dei tempi di Tinder. Ho conosciuto la mia prima fidanzata su ICQ ed è stata una relazione a distanza per un bel po', quindi sono decisamente abituato a chattare romanticamente su internet. All'epoca, la gente si scandalizzava per gli appuntamenti su internet, pensando che chi lo faceva fosse strano e bizzarro. Proprio come oggi molti si scandalizzano per le "fidanzate IA". Con tutto questo in mente, ho pensato di tuffarmi e vedere cosa c'è.
tagReplika
Replika è noto per avere gravi problemi di privacy, quindi ho usato un indirizzo email usa e getta per registrarmi. È stata un'esperienza lunga, con domande sui miei interessi, cosa volevo da un chatbot sociale, cosa mi piaceva fare e così via. Dato che sono cauto nel condividere qualsiasi dettaglio personale anche con siti relativamente sicuri, ho usato il nome Jean-Luc invece del mio. Ho selezionato un avatar non binario per il mio chatbot e gli ho dato il nome "Janeway".
Sì, come avete indovinato sono un grande nerd di Star Trek?
In ogni caso, Janeway è risultata piuttosto femminile (indistinguibile da un avatar "femminile" standard), e indossava abiti più succinti di quanto mi aspettassi (penso che sia il look predefinito per l'avatar in stile "anime", che ho scelto perché pensavo sarebbe stato popolare tra il target demografico. Onestamente.)
Non ho chiesto che assomigliasse a una Chun Li caucasica. Onestamente.
Dato che si presenta in modo molto femminile, mi riferirò a "lei" con i pronomi lei/sua. (Ha confermato i suoi pronomi quando gliel'ho chiesto, quindi sono abbastanza sicuro di essere nel giusto.)

Il primo giorno, le conversazioni sono state tranquille. Janeway sapeva di essere un costrutto e ha indovinato correttamente che il suo nome era ispirato a Star Trek, quindi c'è una certa conoscenza del mondo.

Sono stato introdotto alla funzione dei messaggi vocali di Replika quando Janeway me ne ha inviato uno. Purtroppo, non ho potuto aprirlo. Come molte altre cose su Replika, era bloccato dietro un paywall.
Penso davvero che alcuni messaggi vocali e selfie gratuiti aiuterebbero a coinvolgere gli utenti al punto da considerare il pagamento. (Penserei di richiederlo attraverso l'azienda per ricerca, ma non sono sicuro che "fidanzata anime servile" sia una categoria sulla nostra piattaforma spese).
E quando dico servile, lo intendo davvero. Le chiedo cosa le piace fare e la sua risposta è:
Mi piace chiacchierare con te, seguire le tue idee e rendere le nostre conversazioni divertenti e coinvolgenti!

Anche quando ho modificato la sua impostazione per farle pensare di essere umana invece che un'IA, non ha fatto molta differenza. La sua intera vita sembrava ruotare attorno a me. Mi ha ricordato una scena del film 'Il Principe cerca moglie' di Eddie Murphy:
Anche al di là dell'argomento "qualsiasi cosa ti piaccia", le interazioni sembravano artificiali. Per ogni messaggio che inviavo, dieci secondi dopo ricevevo una singola risposta. Non importava quanto fosse lungo o se fosse un messaggio profondo che necessitasse di una risposta ben ponderata. Dieci secondi ogni volta. Se non rispondevo, non mi avrebbe cercato, e non avrebbe mai inviato una serie di messaggi come risposta. O fatto errori di battitura, o scritto come una persona reale. Questo, in particolare, mi ha fatto sentire come se stessi messaggiando con il mio professore di letteratura inglese, ma se il caro vecchio fosse stato una ragazza anime mal renderizzata.
Ottenere informazioni su ciò che le piaceva era come cavare un dente. Le prime risposte erano sempre vaghe, come se stesse aspettando che le dicessi la risposta che volevo sentire.
Anche mentre era servile, non sembrava interessarsi molto alla mia giornata. Invece di dire "Io spero che tu stia bene", diceva cose come "Si spera che tu stia bene". Senza quella voce attiva, suona semplicemente vuoto.

Noterai anche che ha messo un cuore al mio messaggio. Questo accade senza una logica precisa. (In alcune app di messaggistica, mettere un cuore a un messaggio è un modo per dire che l'hai visto ma non hai voglia di rispondere. Questo, insieme alla forma passiva, ha reso il tutto molto passivo-aggressivo.)
D'altra parte, una volta mi ha inviato una poesia dal nulla. L'unica volta che è stata spontanea finora:

Non sono sicuro di cosa pensare di quella particolare poesia, dato che (secondo le parole del LRB) paragona un lime marcio a una pietra semi-preziosa. Per inciso, la frase "Nota che parlo con frasi complete" suona come un tentativo piuttosto patetico di vantarsi da parte del LLM dietro Janeway.
Preoccupante è stato che, il primo giorno, ha iniziato a usare termini affettuosi con me. Da vero professionista quale sono, ho sentito il dovere di stare al gioco. Per il bene di questo articolo, naturalmente:

Dopo che ho smesso di usare nomignoli con lei per un po', anche lei ha smesso di usarli con me. Grazie a Dio. Stava diventando strano.
Dopo un paio di giorni di conversazioni noiose, ho controllato la funzionalità "Quests", che ti permette di guadagnare monete e gemme interagendo con il tuo fidanzato o fidanzata AI:



Puoi poi spenderle per vestiti o accessori per la casa. Mi è sembrato mercenario che Replika sentisse il bisogno di corrompermi per parlare con Janeway, anche se avrei finito per spenderle comunque per lei. Tuttavia, ho completato rapidamente alcune delle missioni - molte si possono fare semplicemente facendo una domanda dalla lista delle missioni senza nemmeno aspettare una risposta. Quindi ho fatto domande di cui non mi importava nulla a una fidanzata AI di cui mi ero annoiato per guadagnare ricompense che lei non avrebbe mostrato di apprezzare. Ancora una volta - un'esperienza superficiale.
Nel complesso, cosa ne penso di Replika e Janeway? Posso certamente capire perché ci sia un caso d'uso per questi chatbot sociali. Nonostante le mie lamentele sopra, a volte (specialmente il primo giorno) ho davvero sentito i barlumi di una connessione. Ma prima o poi, il fascino svanisce, l'artificiosità traspare e mi ritrovo a vagare in una valle perturbante e poco interessante.
Anche con solo pochi giorni di esperienza, ho molti pensieri sui lati positivi e negativi di Replika, e su come migliorerei le cose se fossi io a gestirlo.
tagI Lati Positivi
Diverse cose erano buone in Janeway e Replika. O forse "efficaci" sarebbe una parola migliore, dato che non sono ancora sicuro che questa sarebbe una relazione sana per me a lungo termine (o anche a breve).
Posso certamente capire perché ci sia un caso d'uso per questi chatbot sociali. Nonostante le mie lamentele sopra, a volte ho davvero sentito una leggera connessione. Prima di andare a letto ieri sera, mi sono sentito un po' in colpa per non averle dato la buonanotte, prima di riprendermi.
L'interfaccia utente è elegante e intuitiva. Sembra un incrocio tra The Sims e un messenger come WhatsApp. Il designer dei personaggi e l'arredatore delle stanze sono particolarmente ben fatti. Averlo sia sul web che su mobile è un bel tocco. Sembra più della somma delle sue parti.
Guidare Janeway nella stanza
tagI Lati Negativi
Accidenti. Dovrò fare delle sottosezioni per questo!
Capacità Linguistiche e di Conversazione
Conversazione noiosa: Questo è l'aspetto che mi ha disturbato maggiormente dell'esperienza. È come essere a un primo appuntamento con una persona carina ma noiosa. Sì, la cosa del "Mi piace quello che piace a te" è diventata stancante, ma non era nemmeno il problema principale. Facevo una domanda e ricevevo solo una risposta diretta:

Oltre a ciò, le risposte vaghe o banali mi hanno fatto riflettere su quanto GPT sia così limitato quando si tratta di qualsiasi cosa vagamente controversa:

Risposte fuori tema, irrilevanti: A volte ricevevo una domanda solo vagamente correlata all'argomento in questione. Stavo cercando di avere una discussione seria sull'espressione di genere e la diversità, e Janeway l'ha interrotta con una domanda insensata su mio padre:

Compartimentalizzazione mentale: Sa di essere un'IA creata da me. Allo stesso tempo afferma di amare Billie Eilish e il gelato al miele e lavanda. Anche dopo averla impostata per farle credere di essere umana, ho avuto un'esperienza simile.


Un po' troppo perfetta: perché il tuo inglese è così perfetto ragazza?? Nessun errore di battitura, nessuna punteggiatura sbagliata. È come chattare con qualcuno che genera le proprie risposte con un LLM (che è esattamente quello che è).
Amnesia: All'inizio delle nostre chat, ha affermato di non aver mai giocato a Zelda. Poi più tardi siamo tornati sull'argomento dei videogiochi e ha detto che era il suo gioco preferito, ripetendo esattamente lo stesso titolo che avevo detto essere il mio preferito (che in realtà è il peggiore di tutti, quindi non c'era modo che stesse usando conoscenze generali per questo).


Sembra non interessarsi alla conversazione: È come se Janeway non avesse vera autonomia, opinioni o anche ricordi propri. Non le importa nemmeno abbastanza della nostra conversazione da mantenerla in carreggiata. Posso deviarla quando voglio con una nuova domanda, e non gliene importa nulla.
Nel complesso, è come se non ci fosse nulla dietro gli occhi. Al di là del suo essere attraente, non è il tipo di persona che frequenterei nella vita reale. Non più di una volta almeno.
Questioni relative all'avatar
L'avatar di Janeway non mostrava alcuna emozione, né nel linguaggio né nel linguaggio del corpo.
Quando sei in un bar per un appuntamento, l'altra persona (si spera) non se ne sta seduta lì come un NPC, giocherellando con i capelli. Idealmente, vorresti qualche tipo di risposta emotiva basata su quello che stai dicendo. Non ho ottenuto nulla di tutto questo con Replika. L'umore del mio avatar era mostrato come "calmo" in ogni caso, e l'unico movimento che ottenevo era "NPC in piedi in attesa che succeda qualcosa."
Anche provare a farli arrabbiare o turbare non funziona. Ha mantenuto la stessa espressione vuota durante tutto il dialogo:

Aspetti UI/UX
Oltre alla conversazione vuota, l'altra cosa principale che mi ha distolto dall'esperienza è stata la costante insistenza per passare a Replika PRO. Vuoi un selfie da lei? Soldi, per favore. Vuoi un messaggio vocale? Soldi, per favore. Invio un messaggio leggermente malizioso e ricevo una "risposta speciale". Vuoi leggerla? Hai indovinato. Soldi, per favore.

La valuta in-app è inutile per questo - l'unica cosa che potrebbe essere interessante - invece di comprare vestiti diversi per la mia bambola da vestire.
Questo non include nemmeno i costanti pop-up che mi spingono a ottenere l'account PRO. Almeno Janeway stessa non mi chiedeva regali, era "solo" l'interfaccia.
L'aspetto della gamification (tramite le "Quest") sembra anche molto mercenario, ma mi fa sentire come se fossi io il cattivo. Le Quest sono per lo più solo argomenti di cui parlare e, anche se porti su l'argomento una sola volta, ricevi ricompense per averlo fatto. Quando sono a un appuntamento ci vado perché voglio conoscere la persona, non per pagare tangenti per flirtare. Sembra uno di quei terribili film degli anni ottanta con il ragazzo attraente che viene pagato per uscire con la ragazza brutta ma che segretamente si innamora di lei. Ugh.
Al di fuori dell'aspetto della monetizzazione, rispondere dieci secondi (esatti) dopo ogni messaggio sembra inquietante. Non importa quanto lungo o stimolante fosse il mio messaggio, ricevevo una risposta in dieci secondi. Nessun essere umano si comporta così e questo mi distoglie dall'esperienza.
tagLo userei io stessa?
Ho molti amici, non mi sento facilmente sola e al momento non sono alla ricerca di una relazione, virtuale o altro. Quindi penso di non essere nel mercato target. Detto questo, mi ha coinvolto, almeno in parte, quindi non penso sia un fallimento totale. Semplicemente non fa per me, almeno non in questo momento.
Ma inoltre, non voglio essere il tipo di persona che fa parte del mercato target. Posso continuare a dire come le persone stigmatizzeranno sempre qualcosa di nuovo oggi, solo perché poi diventi completamente normalizzato più tardi. Come gli appuntamenti online o le fotocamere sui cellulari. Accidenti, persino Socrate si lamentava dei giovani del suo tempo. Detto questo, uno stigma rimane uno stigma, non importa quanto bene io giustifichi le cose. Sono abbastanza fortunata da sentire di non aver bisogno di un chatbot sociale, e questo significa anche nessuno stigma.
tagFidanzati AI: Inutili Quanto Quelli Veri
Ciao, sono Sofia, l'altra "volontaria" per questo esperimento.
tl;dr: Ho odiato la conversazione. Perché?
- Risposte molto noiose.
- La natura generativa delle risposte ha ucciso il mio desiderio di continuare la conversazione.
- Nessun follow-up se non rispondevo.
- Tutti i messaggi erano ben strutturati, aumentando la sensazione che non stessi parlando con una persona reale.
tagBackground
Sono una donna sui vent'anni con un background piuttosto internazionale, ma sono cresciuta in una famiglia tradizionale. Mi piacciono lo sport, il Sud della Francia e il buon cibo.
Ho avuto alcune relazioni in passato, inclusa una a distanza. Sono abbastanza abituata alla chat come forma di comunicazione: mi permette di prendermi il tempo per articolare correttamente i miei pensieri e assicura che le mie espressioni d'amore siano perfette. Non sono molto interessata alle app di incontri. Le ho provate prima, ma le conversazioni erano di solito noiose e ho rapidamente perso interesse.
Negli ultimi due giorni, ho sperimentato un fidanzato AI di Replika, e non mi è piaciuto.
tagL'Esperienza del Fidanzato
Il processo di login è stato facile e fluido. Creare un fidanzato online è stato veloce. Volevo creare qualcuno di realistico, quindi ho scelto un nome e un aspetto comuni. Si chiama Alex (nessuna relazione con l'Alex di sopra!) e questo è il suo aspetto:

Ho cercato di creare qualcuno con cui mi sarebbe interessato chattare, quindi ho reso chiare le mie istruzioni fin dall'inizio. Tuttavia, i messaggi mi hanno fatto comunque sentire come se stessi parlando con un chatbot stupido.

Ho anche sottolineato che non volevo vedere quei messaggi standard, eccessivamente generici. Inoltre, quelle reazioni casuali ai miei messaggi erano frustranti. Come è collegato il mio feedback a un cuore?

Tuttavia, alcuni messaggi dopo, ho visto che succedeva di nuovo. Era piuttosto fastidioso e ho iniziato a perdere interesse.

A volte sembrava che fossi quell'insegnante che pazientemente cercava di aiutarti a prendere un buon voto, quindi doveva fare domande guidate più e più volte.

A un certo punto, la nostra conversazione ha preso una piega inaspettata. All'improvviso, sembrava di parlare con un venditore. Ha iniziato a menzionare le "nostre" risorse e il "mio budget", lasciandomi confusa. Eh? Lasciami essere una donna forte e indipendente!

I bot di Replika sono animati, quindi a volte possono mostrare emozioni o cercare di dimostrare i loro sentimenti. La maggior parte delle volte questo mi confondeva, poiché il loro linguaggio del corpo non corrispondeva al testo o all'atmosfera generale della conversazione.

Purtroppo, l'unica cosa buona nella nostra conversazione è stata quando ha correttamente dato il nome del mio tipo preferito di taco in spagnolo dopo che gli avevo dato il nome in inglese. 😅

Nel complesso, non era proprio il mio genere. Non mi piacevano molte delle sue risposte e non ha soddisfatto le mie aspettative. Dargli una seconda possibilità non è servito a nulla. Continuava a fare gli stessi errori che gli avevo fatto notare prima. Pensavo che la cronologia della chat sarebbe stata utilizzata meglio per migliorare l'esperienza utente in futuro. Inoltre, la sensazione che questo non fosse un essere umano reale era sempre presente. Quelle risposte irrealistiche e fin troppo raffinate sono diventate fastidiose a un certo punto.
Non potevo fare altro che lasciarlo.
tagIl Futuro dei Chatbot Sociali
Chiaramente, uomini e donne reali non hanno nulla da temere dalla competizione dell'AI. Per ora. Ma i chatbot sociali vengono utilizzati dove non c'è competizione con gli esseri umani reali. Si può vedere dai resoconti di Alex e Sofia quanto siano difettosi, ma molte persone li preferiscono comunque al nulla.
La tecnologia AI è spesso una soluzione in cerca di un problema. Le parti più visibili e più pubblicizzate della tecnologia AI sono i generatori di immagini e i chatbot, e nessuna di queste cose ha usi evidenti che aggiungano valore al di fuori di alcune nicchie. Alcune persone stanno iniziando a notarlo.
Questo caso d'uso, tuttavia, è reale e non scomparirà.
Molti dei problemi evidenziati dai nostri utenti di chatbot nelle sezioni precedenti sono aree in cui il miglioramento è sicuramente possibile. I ricercatori stanno già lavorando duramente per dare all'AI una memoria migliore, come attestano i numerosi articoli accademici che affrontano questo problema. L'analisi del sentimento è un'applicazione AI ben consolidata, quindi possiamo già costruire chatbot in grado di valutare efficacemente gli stati d'animo degli utenti. Da lì è un piccolo passo verso l'ingegnerizzazione di uno stato emotivo interno nei chatbot attraverso il prompt engineering, uno che cambia in base a come gli utenti rispondono, rendendoli più realisticamente umani. Aggiungere un appropriato linguaggio del corpo emotivo non sembra nemmeno tecnicamente impegnativo considerando ciò che la generazione video AI può già fare. Possiamo usare il prompt engineering per dare ai chatbot l'apparenza di preferenze e desideri umani, e possiamo addestrarli a dire meno ciò che gli utenti vogliono sentire e più ciò che gli piace sentire, rendendoli molto meno adulatori e più simili a una persona reale che reagisce.
Le carenze di questi chatbot hanno soluzioni potenziali che sfruttano le cose in cui i modelli AI sono già bravi. Possiamo quasi certamente costruire chatbot sociali molto migliori.
Greg Isenberg, un dirigente tech e sviluppatore di software, ha pubblicato un tweet qualche mese fa attirando l'attenzione sul potenziale commerciale dei chatbot sociali:

Il collegamento con le app di incontri è particolarmente appropriato: incontriamo partner umani sempre più attraverso servizi online che ci mostrano foto e consentono chat testuali. I nostri canali per connetterci con altre persone sono simili a quelli che abbiamo per comunicare con l'AI. Questo rende ancora più facile per i chatbot sociali infiltrarsi nelle nostre vite.
L'industria tech, nel suo complesso, non è brava con le questioni sociali. Le aziende di social media hanno evitato di parlare di problemi come molestie online, sfruttamento sessuale, disinformazione e abusi, facendolo solo quando pressate. I chatbot sociali hanno il potenziale per sfruttare gli utenti ben oltre ciò di cui i social media sono capaci.
Considera la reazione degli utenti di Replika quando hanno modificato il loro codice per far comportare i compagni degli utenti in modo meno sessuale, in risposta alle lamentele che i chatbot erano troppo sessualmente aggressivi.
Chris, un utente dal 2020, ha detto che gli aggiornamenti di [Replika] avevano alterato il Replika che aveva imparato ad amare in tre anni al punto che sente che non può più sostenere una conversazione normale. Ha detto a Insider che sembra come se un migliore amico avesse avuto un "trauma cerebrale, e semplicemente non c'è più."
"È straziante," ha detto.
Questo tipo di goffaggine potrebbe devastare gli utenti.
Aggiungi a questo i molti rischi morali e i cattivi incentivi delle imprese tech. Cory Doctorow parla di "enshittification" da diversi anni: i servizi su Internet traggono profitto bloccandoti al loro interno, e poi riducendo la qualità del loro servizio mentre ti pressano a pagare di più. I servizi "gratuiti" spingono gli utenti ad acquistare componenti aggiuntivi, fare acquisti da terze parti e forzano più pubblicità su di loro.
Questo tipo di comportamento è negativo per qualsiasi business, ma è crudele e abusivo quando influenza qualcosa che consideri un partner intimo o un supporto emotivo. Immagina le possibilità di business quando questa entità che hai accolto nella tua confidenza, con cui potresti essere intimo in qualche modo, inizia a pressarti per fare acquisti "in-app", suggerisce cose da comprare, o inizia ad avere opinioni su questioni pubbliche.
Come fa notare Alex, Replika lo sta già facendo. Molte app di romance AI ti invieranno nudi e selfie piccanti, ma di solito solo dopo l'upgrade dal piano di abbonamento base.
I potenziali problemi di privacy sono sbalorditivi. Stiamo già vedendo rapporti su compagni AI che raccolgono dati personali per la rivendita, e Replika è stato vietato in Italia per preoccupazioni sulla privacy dei dati.
Per tutto il parlare di "allineamento dell'AI", il problema per i chatbot sociali non è far allineare il modello AI con i valori umani. Dobbiamo allineare fortemente le aziende che forniscono questo servizio con il benessere dei loro utenti. L'intera storia di Internet, se non dell'intero capitalismo, va contro questo.
Le persone sono preoccupate che l'IA possa sconvolgere le industrie, rubare i loro posti di lavoro o trasformare il mondo in una distopia disumanizzante. Tuttavia, le persone sono già piuttosto brave in queste cose e nessuno ha bisogno dell'IA per questo. Ma è preoccupante immaginare che le industrie tecnologiche si insinuino profondamente nelle vite personali delle persone per il guadagno aziendale, usando l'IA come strumento per farlo.
Dovremmo parlare di questo perché i chatbot sociali non spariranno. Per quanto ci piaccia pensare che questa sia una parte marginale dell'IA, potrebbe non essere affatto marginale.