Chattando con un GPT bot?

Questo articolo ha lo scopo di insegnare diversi trucchi e tecniche popolari per individuare quando stai chattando con un bot di un social media, di un sito di incontri o di un centro di assistenza, soprattutto quando non ci sono avvisi e il bot sta cercando di spacciarsi per un umano. Mi riferisco in particolare ai chatbot come ChatGPT, non a qualsiasi altro bot.
L'intelligenza artificiale risolve molti dei nostri problemi e spesso ci permette di svolgere compiti in moto più veloce, più produttivo e sicuramente migliore di prima.Tuttavia, l'intelligenza artificiale rappresenta anche una seria minaccia sotto molti aspetti, e non mi riferisco solo ai posti di lavoro. Commette molti errori, spesso fornisce informazioni false, ti fa perdere tempo, mina il nostro buon senso e limita la nostra capacità di fare ricerca e di trarre le nostre conclusioni.
L'intelligenza artificiale minaccia anche la privacy e la sicurezza, sia individuale che collettiva, perché può essere utilizzata per creare notizie, foto e video falsi come mai prima d'ora. Infine, e questo è l'argomento principale di quest'articolo, l'IA è in grado di simulare perfettamente le persone reali, impersonandole nelle chat, nei social media, nei siti di incontri, nei servizi di assistenza e molto altro. Sebbene i servizi di solito rendano noto quando utilizzano l'IA, i fornitori non sono sempre trasparenti e a volte spacciano per umani i personaggi generati dall'IA. Ciò è comune sui social media (falsi follower, like, ecc.), ma anche nelle chat e nei siti di incontri. Vogliamo quindi mettere in guardia da questo pericolo e fornire strumenti efficaci per aiutare l'utente a capire se sta chattando con un'IA o con una persona reale.
Non pretendiamo di offrire una soluzione perfetta e sempre funzionante, ma sono certo che dopo aver letto questo articolo sarete molto più bravi a capire se siete stati ingannati o trattati onestamente.
Come funzionano i chatbot?
Nonostante l'immagine all'inizio di questo articolo - un robot futuristico con in mano un telefono cellulare - i chatbot non sono così impressionanti nella realtà. Si tratta semplicemente di programmi informatici, solitamente scritti in Python o in altri linguaggi, che generano messaggi e conversazioni in modo tipicamente umano. Lo fanno analizzando statisticamente miliardi di testi e conversazioni. Inoltre, utilizzando complessi modelli matematici, imitando il funzionamento dei neuroni umani per generare pensieri e idee.
Tuttavia, non sono copie perfette di noi. Nonostante l'imitazione, rimangono programmi per computer, solitamente addestrati a rispondere ad argomenti specifici. È chiaro che i chatbot non hanno sempre bisogno della potenza generativa di ChatGPT, che è un modello più generale e quindi richiede una potenza di elaborazione e dati significativamente maggiori. Esistono anche chatbot più piccoli e, mentre qualsiasi programma GPT può essere individuato dai suoi modelli di risposta, i chatbot più semplici sono ancora più facili da individuare perché sono addestrati esclusivamente su un argomento specifico. Ad esempio, i prodotti e i servizi offerti da un influencer o da uno specialista di marketing potrebbero essere facilmente presentati da un'IA addestrata su un personal computer a causa del contesto limitato della sua area di competenza.
Ecco alcuni segnali tipici che rivelano che state parlando con un'intelligenza artificiale che finge di essere umana:
- Ambito di conversazione limitato: Cercate di indirizzare la conversazione verso un argomento più complesso o diverso. Un'intelligenza artificiale indicherà rapidamente di non capire o, se si tratta di un'intelligenza artificiale più avanzata, non risponderà affatto senza alcun motivo evidente.
- Non risponde ai toni provocatori: Se si cerca di usare un tono più provocatorio o diretto, l'IA probabilmente si atterrà a una risposta educata e politicamente corretta. Anche se un rappresentante del servizio clienti addestrato potrebbe fare lo stesso, di solito cercherà di cambiare argomento o di trasferirvi. Invece l'intelligenza artificiale si atterrà al suo percorso pre-programmato.
- Offerte di servizi inflessibili: Se offre un servizio, provate a fare una controfferta. Ad esempio, se sta proponendo la gestione dei social media, chiedete delle partnership commerciali. Se continua a proporre gli stessi servizi e sembra incapace di discostarsi, è probabile che si tratti di un'intelligenza artificiale.
- Deriva tematica: In una chat generica, se l'IA sposta la conversazione su un altro argomento senza dimostrare di aver compreso il punto precedente, probabilmente è intrappolata nei suoi parametri di addestramento.
Ecco alcuni segnali tipici che rivelano che state parlando con un'intelligenza artificiale che finge di essere umana:
- Risposte istantanee e lunghe: Risponde istantaneamente con grandi quantità di testo, come se incollasse le risposte o digitasse più velocemente di 106 parole al minuto (la velocità media di conversazione umana è di 106-109 parole al minuto).
- Interpretazione letterale: Prende tutto alla lettera, spesso in modo esagerato, quasi grottesco (anche se questo può essere un tratto di alcuni individui autistici).
- Risposte vaghe e generiche: Fornisce risposte vagamente correlate alla domanda, a volte ripetendo le parole dell'utente per simulare l'attenzione, un vecchio trucco.
- Disponibilità incondizionata: È sempre disponibile, indipendentemente dall'ora in cui lo si contatta, e fornisce sempre le stesse risposte a domande ripetute con variazioni minime.
- Chiedere quanti ne abbiamo: Questo trucco è molto conosciuto e discusso sui social. Chiedete la data di oggi. Una risposta troppo formale come «Oggi è giovedì 26 ottobre 2023», senza alcuna sorpresa o esitazione, è un forte indicatore. Un umano probabilmente risponderebbe in modo meno rigido, anche se sta cercando di essere utile.
Infine, ecco alcuni segnali più generali:
- Tempo di risposta costante: I modelli più avanzati potrebbero utilizzare un ritardo costante tra la ricezione di un messaggio e la risposta. Un ritardo variabile o casuale è meno comune.
- Complessità di risposta uniforme: Le risposte dell'intelligenza artificiale tendono a mantenere un livello costante di complessità e struttura, mentre le risposte umane variano in stile, ritmo e complessità.
- Errori e ripetizioni: Le risposte dell'intelligenza artificiale possono essere prive di errori, ma possono comunque presentare errori sintattici o semantici. Anche l'ortografia perfetta può essere un segno di artificialità.
- Mancanza di sfumature culturali ed emotive: L'intelligenza artificiale spesso non coglie le sottigliezze culturali, emotive o contestuali.
- Essere molto diretti: Fare domande dirette su opinioni personali o esperienze molto specifiche può rivelare con chi si sta interagendo. Se si dice qualcosa di assurdo e si ottiene una risposta come se fosse perfettamente normale, è probabile che si stia parlando con un'intelligenza artificiale.
Chiaramente, interagire con un'intelligenza artificiale non è sempre negativo. A volte, una risposta da parte di un'IA specificamente addestrata a risolvere un problema in un particolare contesto è molto migliore e più veloce dell'attesa di un agente umano. Ma tutto dipende dal contesto e, in generale, l'utente dovrebbe essere sempre informato e non permettere mai a nessuno di ingannarlo fingendo di essere qualcuno che non è.
Più IA o meno IA?
Quanto abbiamo discusso finora fa sorgere una domanda ovvia: l'IA è in definitiva positiva o negativa? È inevitabile che il progresso umano arrivi a questo punto. Nel corso della storia, ogni volta che è emersa una nuova tecnologia, alcuni posti di lavoro sono diventati obsoleti e ne sono sorti di nuovi. Si spera che questo accada anche con l'IA. Senza credere ai miti in stile Terminator sull'IA che ci rende schiavi, dobbiamo accettare il progresso per quello che è, perché non possiamo combattere la realtà.
Tuttavia, è fondamentale emanare leggi e regolamenti rigorosi per prevenire gli inevitabili abusi dell'IA. Ad esempio, sono necessarie leggi che impongano agli utenti di essere informati se stanno interagendo con una macchina, che vietino la creazione di notizie false e che impongano una chiara etichettatura dei contenuti generati dall'IA.
Soprattutto, i generatori di modelli linguistici come ChatGPT dovrebbero essere obbligati a incorporare modelli che permettano agli esseri umani e alle altre macchine di identificare inequivocabilmente i contenuti generati dall'uomo e quelli generati dall'IA. Tali leggi contribuirebbero a limitare gli abusi e a evidenziare i vantaggi offerti dall'IA. Solo allora questa innovazione recente e molto controversa potrà essere considerata davvero vantaggiosa per il progresso e la produttività.