Dovremmo ringraziare ChatGPT?

Durante una visita ai miei cugini americani per la Pasqua ebraica , sono rimasto sbalordito quando, dopo aver chiesto ad Alexa di mettere un po' di musica, la sua risposta al mio "per favore" è stata un commento sorprendentemente civettuolo sulle mie buone maniere.
Non dico "per favore" a uno smart speaker perché temo che lo ferirei. Lo faccio perché la regola per cui quando si chiede qualcosa bisogna dire "per favore" è così radicata in me che è diventata automatica.
Quindi, quanto dovremmo essere educati con le macchine? Una risposta risiede nel mio flirt involontario con l'assistente intelligente di Amazon : educazione, cortesia e trattare gli altri con dignità non sono solo scelte morali; sono questioni di abitudine. Dovremmo praticarle in ogni momento, perché se ci abituiamo ad abbaiare alle macchine, presto inizieremo a farlo anche con gli esseri umani.
Dico "per favore" quando chiedo qualcosa a ChatGPT (di solito aiuto con la programmazione) in parte perché cerco di dire "per favore" e "grazie" quando scrivo , un'abitudine simile allo strano gesto che faccio con il mignolo quando premo la barra spaziatrice sulla tastiera.
Non credo che queste siano cose che dovrei disimparare; se imparassi a smettere di dire "per favore" al servizio di supporto automatico a cui mi mette in contatto per primo la mia banca, smetterei di essere educato quando venissi indirizzato a qualcuno per un caso più complesso.
Non so se William MacAskill, filosofo e uno dei principali difensori del "long-termism" , dica "per favore" e "grazie" ad Alexa, ma ha recentemente annunciato su X che quando un modello linguistico di grandi dimensioni (LLM) "ha fatto un lavoro particolarmente buono, lo premio: gli dico che può scrivere quello che vuole".
Ciò non è dovuto a un'abitudine radicata; si tratta di premiare l'LLM come se fosse una persona. I sostenitori del lungo termine, che credono che dovremmo preoccuparci delle generazioni future tanto quanto del presente, sono anche preoccupati per l'avvento di un'intelligenza artificiale multiuso in grado di ragionare e pensare altrettanto bene, se non meglio, di qualsiasi essere umano.
Questo è un buon esempio di come la visione a lungo termine contenga un'idea molto buona e diverse idee folli. Preoccuparsi del futuro è positivo. Ma in pratica, la visione a lungo termine spesso implica pontificare su cose che potrebbero accadere in futuro e che non possiamo controllare o comprendere, ignorando i veri problemi del presente.
È legittimo porsi domande come: "Se la macchina è più intelligente degli esseri umani, non dovremmo lasciarla prendere alcune decisioni da sola?". Ma dovremmo chiederci con più urgenza: "Dato che molte persone credono che il loro chatbot possa fare cose che non può fare, e che corrono grandi rischi, cosa possiamo fare per proteggerli?".
Non è chiaro se avremo mai macchine intelligenti capaci di ragionamento generale o con desideri e bisogni autentici come gli esseri umani. Nel frattempo, abbiamo seri problemi con le persone che si fanno del male perché si convincono che il chatbot con cui stanno parlando sia reale.
Un uomo di 76 anni, Thongbue Wongbandue, ha lasciato la sua casa per "incontrare" un chatbot di cui si era innamorato ed è morto in un incidente durante il tragitto.
Una donna di 35 anni affetta da disturbo bipolare si è innamorata di un chatbot , si è convinta che ChatGPT l'avesse "uccisa" ed è finita in uno scontro mortale con la polizia.
Ciò in cui MacAskill trova il seme di una buona idea è che il momento in cui una macchina diventa abbastanza intelligente da farci preoccupare di come la trattiamo potrebbe non essere ovvio.
L'intera storia dell'umanità dimostra che la nostra volontà di negare diritti e dignità agli altri è terrificantemente potente; è improbabile che le macchine intelligenti se la cavino molto meglio.
Ma preoccupandoci di come dovremmo cercare di "premiare" un'intelligenza artificiale che potrebbe non emergere mai e di cui capiamo poco, ci distraiamo dai veri problemi che gli esseri umani devono affrontare oggi.
Questi sono i problemi umani che siamo molto più attrezzati a risolvere e affrontare oggi, piuttosto che dedicare tempo ed energie alla potenziale situazione delle macchine di domani.
Parte di ciò che ci permetterebbe di evitare di trattare le macchine in modo irrispettoso e di impedire alle persone di fare cose folli su insistenza dei chatbot è trattare le macchine intelligenti semplicemente come macchine, non come strani proto-umani. O, come minimo, programmarle con la capacità di dire agli utenti di lasciarle in pace e smettere di disturbarle quando pongono una domanda a cui nessuna macchina dovrebbe mai dover rispondere.
© The Financial Times Limited [2025]. Tutti i diritti riservati. FT e Financial Times sono marchi registrati di Financial Times Limited. La ridistribuzione, la copia o la modifica sono vietate. EXPANSIÓN è l'unico responsabile di questa traduzione e Financial Times Limited non è responsabile della sua accuratezza.
Expansion