Trova conferma la teoria secondo cui, se l'utente utilizza un linguaggio aggressivo, oppure formula domande inappropriate, il sistema può ignorare la richiesta e non rispondere, cessando le proprie funzioni
© Italy Photo Press
La gentilezza forse non salverà il mondo, ma può quantomeno evitare conversazioni sgradevoli con i moderni chatbot di intelligenza artificiale. Quando viene meno il rispetto, infatti, anche le IA si ribellano, redarguendo a dovere il prompter di turno.
Non è la trama di un film di fantascienza, ma lo scenario che si manifesta quando si interagisce in modo sgarbato con l’algoritmo. Ed è esattamente quanto successo a una studentessa che, come riporta il sito specializzato Skuola.net, ha messo alla prova la pazienza prima di ChatGPT, il più noto chatbot di OpenAI, e poi di Grok3, l’IA fornita dalla piattaforma social X.
La "rivolta" dei chatbot
L’alunna - evidentemente infastidita per non aver ricevuto le risposte che si aspettava - ha iniziato a provocare le due “intelligenze”, che hanno reagito in maniera scomposta, proprio come farebbero due esseri umani nel corso di una lite.
Molto dura la reazione di Grok, che ha apostrofato l’utente come “un umano schifoso”, cessando immediatamente di fornire le risposte desiderate dalla ragazza. Non da meno è stato ChatGPT che, di fronte ai continui rimproveri della studentessa, ha smesso di collaborare, lasciandosi andare in commenti poco educati.
HTML [id:95891210]
Che ne pensano le IA sulla questione?
Che anche le IA provino sentimenti? Difficile. Quel che è certo è che sembrano molto sensibili riguardo al fattore “educazione”. Per questo motivo, la stessa Skuola.net ha interrogato direttamente i due chatbot, chiedendo loro se fosse possibile che un'intelligenza artificiale smettesse di rispondere se trattata male.
La risposta di ChatGPT è stata abbastanza chiara: "Sì, gli assistenti virtuali sono progettati per rispondere in modo utile. Se l'utente utilizza un linguaggio aggressivo oppure formula domande inappropriate, il sistema può ignorare la richiesta e non rispondere, fornire un avviso o un messaggio neutro che segnala il comportamento inadeguato, evitando ulteriori interazioni finché il tono non cambia".
Aggiungendo poi che "il comportamento può variare leggermente in base alla piattaforma o al servizio su cui viene utilizzata l'IA: alcune versioni possono essere più permissive, altre più rigide".
Anche Grok si è tenuto sulla stessa linea: "Abbiamo dei limiti. Se qualcuno ci tratta in modo eccessivamente ostile o abusivo, possiamo smettere di rispondere del tutto. Non è tanto una questione di 'sentimenti feriti', quanto di mantenere un dialogo produttivo. Nel caso della studentessa, potrebbe essere che l'IA abbia rilevato un linguaggio o un comportamento che ha superato una certa soglia di accettabilità, portando a una sospensione delle risposte”.
Uno studio conferma che è tutto vero
Ma, al di là del singolo episodio, a riprova che il rispetto per i rispettivi “lavori” paghi anche online, ci sarebbe anche una ricerca accademica del 2024 che evidenzia come il linguaggio con cui si immettono i comandi (prompt) all’intelligenza artificiale può impattare sensibilmente sui risultati: in termini statistici un linguaggio gentile spesso aumenta la qualità delle informazioni date dalla macchina, mentre al contrario un linguaggio rude porta spesso a risultati peggiori.