Salta al contenuto principale

Imparare con l’AI (o smettere di farlo)? Strategie per evitare il deskilling e valorizzare la riflessione

Secondo uno studio pubblicato da OpenAI (OpenAI, 2023), circa l’80% della forza lavoro statunitense vedrà almeno il 10% delle proprie attività influenzate dall’AI generativa. In particolare, alcune professioni a forte contenuto cognitivo (come consulenti, analisti e ricercatori) potrebbero arrivare ad avere fino al 50% delle attività automatizzate o assistite da modelli di genAI. In un recente intervento (Axios, 2025), Dario Amodei, CEO di Anthropic (la società che sviluppa Claude, 62 miliardi di dollari a Marzo 2025), ha dichiarato che l’AI potrebbe tagliare fino al 50% delle posizioni entry-level per i colletti bianchi.

Scenario realistico o “solito hype” tecnologico?

L’adozione di strumenti basati su modelli linguistici di grandi dimensioni, LLM (Large Language Model1) come Copilot, ChatGPT, DeepSeek o Claude, è già oggi una realtà quotidiana per milioni di persone. Queste tecnologie stanno cambiando profondamente il modo in cui lavoriamo, apprendiamo e prendiamo decisioni. Se da un lato promettono (e spesso permettono) un aumento immediato della produttività, dall’altro pongono interrogativi urgenti su come evolveranno le relazioni tra persone e genAI, e su quanto e come continueremo ad apprendere nel tempo. Imparare in modi nuovi e diversi (e anche più efficacemente) è possibile, a patto di non illuderci che succeda da solo.

Naturalmente, questi scenari sono (fortemente) ipotetici e spesso si basano su proiezioni soggettive e stime non sempre rigorose. È importante considerarli con senso critico. Anche in passato innovazioni come la robotica, la digitalizzazione d’ufficio o la blockchain sono state accompagnate da annunci di drastica riduzione dell’occupazione o di “rivoluzioni”. Quello che si è osservato a livello macro è piuttosto una trasformazione del lavoro: alcune attività sono state modificate, ridotte o automatizzate; molte competenze sono state riqualificate, nuovi bisogni sono emersi. Tuttavia, nessuna di queste ha prodotto effetti realmente catastrofici. Piuttosto, ciò che si è osservato è stata una riorganizzazione del lavoro e delle competenze. Alla luce di nuovi sviluppi come il recente Study Mode di ChatGPT2, diventa evidente quanto sia necessario interrogarsi su quali modelli educativi possano dialogare con l’AI, in quali domini e con quali limiti, e su come valutarne gli effetti non solo sulle performance immediate ma anche sulla crescita individuale e collettiva nel lungo periodo. Non farlo significherebbe accettare una delega silenziosa: lasciare che le traiettorie educative (strategie di apprendimento e priorità formative) vengano modellate, per inerzia, dalle logiche commerciali delle aziende AI o dalle scelte episodiche dei singoli utenti (in questo scenario interlocutori/discenti?). Il punto, quindi, non è solo stimare come e quanti posti di lavoro cambieranno, ma capire come cambierà il modo stesso in cui impariamo e lavoriamo.

Un impatto non lineare: più sinergia (e augmentation) o sostituzione?

L’introduzione di nuove tecnologie ha incontrato anche ostacoli imprevisti: costi di transizione elevati, resistenze culturali, limiti applicativi. Più che una sostituzione diretta uomo-macchina, si è affermata una nuova sinergia tra persone e tecnologie, che ha portato a nuove configurazioni del lavoro.

L’AI generativa, però, presenta almeno tre caratteristiche che potrebbero amplificarne l’effetto (almeno quello percepito):

  1. È la prima tecnologia a incidere significativamente non solo su compiti ripetitivi e standardizzati, ma anche su attività di sintesi, di costruzione e di progettazione (design);
  2. Si è diffusa dal basso, con un’adozione inizialmente individuale e personale, che ha preceduto qualsiasi strategia organizzativa strutturata, generando un uso della tecnologia spesso non governato né coordinato;
  3. Comporta sfide etiche, sociali e organizzative ancora poco esplorate, rendendo più incerta la sua gestione nel medio-lungo periodo.

Un possibile scenario è quello di un impatto non lineare e dunque meno prevedibile: non tanto una sostituzione diretta del lavoro umano, quanto una profonda trasformazione delle modalità con cui valore, competenze e conoscenza vengono creati, appresi e condivisi.

Apprendere o delegare?

A livello globale il World Economic Forum (WEF, 2025) riporta come tra il 2023 e l’inizio del 2024 oltre il 65% delle grandi aziende avesse già integrato almeno una soluzione basata su AI generativa nei propri processi produttivi, nel customer service o nell’analisi interna, con i settori tecnologico, finanziario e dei servizi a guidare questa adozione. Secondo l’ultimo report McKinsey (the State of AI, 2025), il tasso di adozione ha già raggiunto il 78% per almeno una funzione aziendale e il 63% per due o più. Ancora più rilevante il dato relativo alla formazione: un numero crescente di organizzazioni ha già avviato percorsi di riqualificazione delle competenze e la percentuale di aziende che prevede di formare oltre la metà dei propri dipendenti sull’uso dell’AI è raddoppiata, passando dal 9% al 19%. Eppure, se guardiamo più da vicino, la domanda rimane: stiamo davvero imparando mentre automatizziamo? E se la risposta è incerta in questo momento, sorge un’altra domanda: come possiamo creare le condizioni per cui l’automazione tramite genAI avvenga insieme all’apprendimento individuale e collettivo?

L’adozione di AI generativa, quindi, non è più un fenomeno marginale, confinato solo ad ambienti pionieristici. È una trasformazione estesa e profonda, che sta ridefinendo le dinamiche dei modelli di lavoro. Ma proprio in questa fase, in cui l’AI entra in modo massivo nelle pratiche quotidiane, molte domande cruciali restano aperte. Tra le più interessanti, anche perché ancora in pochi si stanno impegnando ad affrontarla: come si sta modificando il lavoro individuale e le dinamiche dei modelli lavorativi? Quale è l’impatto dell’uso della genAI sulle capacità di apprendimento individuali e collettive?

Altre questioni ancora aperte sull’uso dell’AI

Un primo nodo cruciale riguarda l’affidabilità. Anche se le AI “allucinano”3 meno rispetto al passato, l’errore resta possibile e molto spesso è difficile da riconoscere, perché non evidente. La capacità di distinguere una risposta verosimile da una risposta corretta diventerà presto una delle competenze cognitive critiche del lavoro.

Ma c’è anche una tensione più profonda. I modelli linguistici generativi si basano su prossimità statistica: generano la risposta “più probabile” in base al contesto e ai dati appresi. Tuttavia, ciò che è frequente non è necessariamente ciò che è più rilevante o utile in un caso specifico. Anche se i modelli recenti hanno migliorato la capacità di gestire ambiguità e casi rari, il rischio di un appiattimento degli output (le risposte della genAI) sul “già visto” resta. Proprio i corner case, i casi ambigui, rari, o complessi evidenziano la centralità e l’importanza della competenza, esperienza e giudizio umano.

Un'altra questione ancora poco esplorata riguarda l’integrazione organizzativa. Attualmente l’uso dell’AI è prevalentemente individuale: ciascuno lavora con il proprio assistente, ma mancano spesso pratiche condivise, rituali organizzativi e strumenti collettivi per gestire l’uso dell’AI in modo distribuito e coordinato. La tecnologia è presente, ma non è ancora ancorata nelle pratiche e nella cultura. Il suo uso è quindi molto diverso da individuo ad individuo e questo aumenta il rischio di disallineamenti e incomprensioni.

Infine, tra le domande più urgenti: quali sono oggi le capacità che ci rendono ancora insostituibili rispetto all’AI? Quali forme di intelligenza (se di intelligenza4 si può parlare in senso stretto per l’AI), ad esempio critica, emotiva, contestuale, restano realmente umane e insostituibili? Abbiamo gli strumenti per decidere quando delegare (e come) e quando no?

È in questo contesto che affrontiamo uno dei problemi più trascurati ma decisivi: cosa succede all’apprendimento umano quando l’AI diventa una mediatrice costante del lavoro cognitivo?

Il dilemma del manager: produttività immediata o apprendimento profondo?

Immaginiamo un giovane sviluppatore software. Riceve un task/compito, lo apre in Copilot (o qualsiasi altro modello di AI generativa), scrive qualche riga di prompt, accetta la prima proposta, testa il codice, funziona. Tutto a posto. Il compito è completato, il manager è soddisfatto. Ma sotto la superficie resta il dubbio che qualcosa vada perso: la comprensione del problema, il ragionamento dietro la soluzione, la capacità di adattarla in futuro.

Questo è il cuore del dilemma che oggi affrontano molti team, spesso senza nemmeno accorgersene. È il paradosso dell’invisible skill erosion (deskilling), l’erosione silenziosa delle competenze nascoste dietro la produttività. Alcuni recenti studi (Bolici et. al 2025) teorizzano esattamente questi scenari: i casi in cui l’uso dell’AI porta ad un immediato aumento di efficienza che però può compromette l’apprendimento profondo nel lungo periodo. Ad esempio, secondo la cognitive apprenticeship (Collins et al., 1989), l’apprendimento avviene attraverso l’osservazione, la riflessione e la partecipazione attiva a contesti reali. L’adozione passiva dell’output generato da AI può interrompere questo ciclo, impedendo lo sviluppo di una comprensione profonda. Sviluppatori poco esperti adottano soluzioni generate dall’AI con minime revisioni, consolidando così un’illusione di competenza e riducendo la possibilità di apprendere in modo significativo. Si fa di più, ma si rischia di imparare e capire di meno. O, peggio, si apprende in modo fragile, senza elaborazione critica, senza interiorizzazione.

Questo effetto potrebbe essere coerente con quanto descritto nella “illusione di comprensione profonda” (Rozenblit & Keil, 2002): l’accesso immediato a soluzioni pronte induce a credere di comprendere un contenuto anche quando la conoscenza è solo superficiale. In assenza di fatica cognitiva, l’apprendimento rischia di diventare fragile e poco trasferibile.

Il problema non si limita alla programmazione. Un copywriter che affida ogni titolo o revisione a ChatGPT perde progressivamente la sensibilità stilistica. Un analista che legge report generati automaticamente rischia di non cogliere il frame interpretativo. Un assistente legale che lavora solo su template/modelli già precompilati rischia di non riconoscere più una clausola ambigua.

In tutti questi casi il risultato si ottiene (e spesso in meno tempo e con meno sforzo), ma il processo è svuotato. L’apprendimento non passa più attraverso l’esperienza, ma attraverso la revisione passiva di un output generato da altri, o da una macchina. Questo cambia tutto. Perché l’apprendimento, fino ad ora ha sempre avuto bisogno di fatica cognitiva, di errore, di dubbio. Se saltiamo questi passaggi, il rischio concreto è di crescere meno. E soprattutto di crescere perdendo qualcosa.

È un rischio, certo, ma non è l’unico scenario possibile. L’introduzione dell’AI nei processi di lavoro e di formazione potrebbe anche aprire strade che non avevamo ancora immaginato: modi nuovi di apprendimento, modelli e approcci che finora non erano stati concepiti o non erano realizzabili. Non solo un imparare “nonostante” l’AI, ma un imparare “attraverso” l’AI.

Dopotutto, ogni grande innovazione che ha impattato la sfera cognitiva – dalla scrittura, alla stampa, fino a Internet – all’inizio ha portato elementi di timore o dubbio,  poi, lentamente, ha cambiato il modo in cui costruiamo o diffondiamo la conoscenza. Perché non dovrebbe succedere lo stesso con l’intelligenza artificiale? Potrebbe diventare un allenatore invisibile ma onnipresente (con i rischi chiari di una entità che colleziona ancora più dati su ognuno di noi): una presenza silenziosa, ma capace di stimolare domande, suggerire collegamenti che non vedremmo da soli, offrire punti di vista imprevisti.

Naturalmente, perché questo accada, serve intenzionalità. L’apprendimento non nascerà da sé: avrà bisogno di progetti, metodi, pratiche consapevoli. L’AI, insomma, non può essere solo una scorciatoia: va usata come catalizzatore di pensiero critico, come strumento per andare più a fondo.

La sfida vera non è soltanto evitare il rischio di “imparare di meno”. È piuttosto saper cogliere l’occasione di imparare in modi nuovi, più profondi, più vivi. E questo richiede una scelta, ora: affrontare la questione di petto, governarla, invece di lasciarsi trascinare senza nemmeno accorgersene.

Perché l’AI può aprire nuove vie all’apprendimento, ma è altrettanto vero che non tutti sapranno  o potranno approfittarne allo stesso modo. Qui spunta un nodo altrettanto delicato: il rischio di una nuova, sottile disuguaglianza cognitiva.

Il rischio di una nuova disuguaglianza cognitiva

Nel frattempo, i professionisti più esperti è possibile che imparino a usare l’AI come leva cognitiva in grado di aumentare la propria produttività. Delegano le parti ripetitive del proprio lavoro, ma restano in controllo del processo complessivo perché ne capiscono i vantaggi, ne comprendono le logiche o, semplicemente, si affidano a pratiche consolidate nel tempo.

I più giovani, invece, rischiano di delegare troppo presto e troppo in profondità l’intero processo perché i vantaggi sono immediati (tempo risparmiato, risultati accettabili), ma il prezzo potrebbe essere alto: saltano le fasi dell’apprendimento necessarie per interpretare, modificare o persino riconoscere ciò che l’AI sta davvero producendo.

Un recente studio condotto da Wecks et al. (2024) ha analizzato l'impatto dell'uso di strumenti di intelligenza artificiale generativa, come ChatGPT, sulle prestazioni degli studenti universitari. I risultati indicano che gli studenti che utilizzano tali strumenti ottengono in media punteggi inferiori agli esami rispetto a quelli che non li utilizzano, suggerendo che l'uso di ChatGPT possa ostacolare l'apprendimento profondo. La ricerca in questo campo è ancora agli inizi e mancano evidenze consolidate per raggiungere conclusioni univoche, ma sono sufficienti per aprire delle domande.

Ad esempio questi risultati evidenziano una potenziale disuguaglianza cognitiva emergente: non solo tra chi sa e chi non sa, ma tra chi è in grado di utilizzare l'AI in modo critico e strategico e chi si limita a utilizzarla come scorciatoia operativa. Questo potrebbe riguardare anche l’accesso alle opportunità: chi saprà usare l’AI come leva cognitiva potrà ampliare le proprie possibilità di crescita, mentre chi la userà solo come scorciatoia rischierà di restare intrappolato in ruoli sempre più operativi e meno formativi. È fondamentale, quindi, promuovere un uso consapevole dell'AI che supporti l'apprendimento profondo piuttosto che sostituirlo.

Una disuguaglianza non solo di conoscenza, ma di capacità interpretativa e strategica. Non tanto un gap tecnico, quanto un divario nella padronanza del processo. Una trasformazione senza tracce: il divario si sposta dal saper fare al saper chiedere, e dal saper chiedere al saper interpretare ciò che viene restituito. Chi sa riconoscere un elemento fondamentale dal rumore di fondo, un errore, un’incoerenza, un’occasione mancata. In un mondo dove l’AI sarà probabilmente sempre più presente, la competenza decisiva sarà quella che consente di interrogare, valutare e comprendere, non solo di produrre.

I manager di domani sapranno decidere senza AI?

Questa dinamica pone un’ulteriore domanda, forse ancora più importante. Se i manager del futuro cresceranno usando strumenti di AI fin dalle prime fasi del loro percorso professionale, avranno mai imparato a risolvere un problema complesso senza AI? Sapranno giudicare un output senza supporti predittivi? Riconosceranno quando una risposta è solo plausibile ma non corretta?

Senza esperienze concrete di problem solving “in prima persona”, rischiamo di formare una generazione di decisori che supervisiona ciò che non comprende a pieno, che valuta ciò che non sa ricostruire in maniera critica. La delega cognitiva non è di per sé un male. Ma lo diventa quando è automatica, inconsapevole, sistemica.

Quando diventa la norma prima ancora che si siano sviluppate le competenze necessarie per usarla in modo consapevole. In questo scenario, non solo si riduce la capacità di controllo, ma si offusca anche la responsabilità: chi ha deciso cosa? Con quali criteri? In base a quale comprensione del problema?

Se l’AI diventa il filtro attraverso cui leggiamo e interpretiamo il mondo, serve ancora di più la capacità di vedere cosa quel filtro lascia fuori. E questo tipo di consapevolezza non nasce dalla scorciatoia, ma dalla fatica dell’apprendimento, dalla pratica della riflessione, dall’esperienza del dubbio. E questa differenza non riguarderà solo studenti o professionisti alle prime armi, ma si estenderà anche a chi sarà chiamato a guidare team e organizzazioni.

Possiamo ancora costruire ambienti intelligenti?

La tecnologia non è (sempre) neutra, e sicuramente non lo sono le modalità con cui decidiamo di adottarla. Se continuiamo a valutare il lavoro solo in base all’output, quantità di righe di codice, numero di documenti prodotti, tempi di delivery/consegna, rischiamo di creare ambienti in cui il sapere si consuma ma non si costruisce.

Possiamo invece immaginare organizzazioni che scelgono deliberatamente di premiare la riflessione, valorizzare la comprensione, accogliere l’errore come spazio di apprendimento. Tutto questo non vuol dire rinunciare all’efficienza che l’AI può generare nei contesti ad alta intensità cognitiva, ma ripensarla: disegnando modelli di adozione che tengano conto non solo dei vantaggi nel breve periodo ma anche dei possibili impatti e ripercussioni nel lungo periodo.

Per esempio, è possibile progettare ambienti che allenino non solo alla produttività aumentata dall’AI, ma anche alla consapevolezza di come e perché si produce qualcosa. Includere fasi di debriefing nei team, alternare compiti con e senza AI, o stimolare confronti tra soluzioni generate e soluzioni umane sono pratiche che riportano l’attenzione sul processo, non solo sull’output.

Alcune aziende stanno già sperimentando pratiche in questa direzione. Atlassian, ad esempio, ha introdotto nei team di sviluppo dei “health check” in cui si discute esplicitamente dell’uso dell’AI nei processi: non solo cosa si è fatto, ma come e con quali strumenti. SAP affianca i più giovani nell’uso di Copilot con forme di reverse mentoring, in cui i senior validano e discutono le scelte fatte con l’AI. Mozilla ha creato sandbox organizzativi dove testare strumenti generativi senza conseguenze dirette sui deliverable, ma con obbligo di riflessione collettiva sui limiti e le potenzialità emerse.

Allo stesso modo, le organizzazioni potrebbero adottare criteri di valutazione che includano la capacità di interrogare l’AI, argomentare una scelta supportata da output generativi, o esplicitare i limiti degli strumenti usati. Un’alfabetizzazione algoritmica minima dovrebbe essere parte integrante della formazione continua, non come abilità tecnica, ma come competenza cognitiva e critica.

Questo implica anche ripensare i percorsi formativi: non solo insegnare a progettare prompt efficaci, ma anche a criticarli; allenare al confronto tra risposte umane e artificiali; introdurre esercizi deliberati di “disconnessione” per preservare le competenze di base. Le organizzazioni più lungimiranti dovrebbero saper alternare zone di automazione a zone di fatica cognitiva controllata, in cui si apprende proprio perché non si delega.

Un altro fronte strategico riguarda la trasparenza e la responsabilità distribuita nell’uso dell’AI: significa rendere visibile, nei processi e nei risultati, quando e come è intervenuta l’intelligenza artificiale. Non per motivi ispettivi o per aumentare i controlli, ma per sviluppare una cultura della consapevolezza epistemica — cioè della consapevolezza su come si genera conoscenza.

L’AI non è mai un mezzo neutro: è anche un filtro cognitivo, che orienta ciò che vediamo, capiamo, consideriamo rilevante. Come una grammatica, struttura il pensiero. Alcune risposte diventano più probabili, più accessibili. Altre, più insolite, critiche, divergenti, rischiano di scomparire sotto la soglia della generazione automatica. Se non rendiamo visibile questa grammatica e se non diciamo da dove viene una risposta, chi (o cosa) l’ha proposta e in base a quali criteri, rischiamo di confondere (o di nascondere) ciò che è generato automaticamente con ciò che è frutto di giudizio e responsabilità umana.

La vera innovazione, forse, è proprio questa: costruire contesti dove si possa sperimentare senza paura di sbagliare, un principio spesso invocato nelle culture aziendali, ma meno frequentemente abilitato in modo concreto. Dove l’AI sia una leva di apprendimento, e non un sostituto della comprensione. Dove la scorciatoia non diventi prassi, ma venga riconosciuta come tale o nobilitata a strumento all’interno di un processo più complesso. Possiamo usare l’AI per imparare di più, non per imparare di meno. Ma questo richiede intenzionalità: nelle politiche formative, nei modelli organizzativi, nei criteri di responsabilità. Perché il problema non è l’AI, né lavorare con l’AI. Ma farlo in modo che si continuino a sviluppare le capacità di apprendimento a livello individuale, organizzativo e sociale e non dimenticare cosa significhi davvero confrontarsi, incuriosirsi, avere un dubbio e alla fine anche comprendere. ​​Se l’AI segnerà un punto di svolta nell’apprendimento, dipenderà meno dagli algoritmi e più dalle scelte di chi li usa.

  1. Un Large Language Model (LLM) è un sistema di intelligenza artificiale addestrato su enormi quantità di testo per comprendere e generare linguaggio naturale. Utilizza tecniche avanzate di machine learning per “predire” la parola successiva in una frase, producendo risposte coerenti, traduzioni, riassunti, testi creativi e altro ancora. Anche se non “capisce” come un essere umano, riesce a imitare la struttura del linguaggio e ad adattarsi a contesti diversi. È alla base di strumenti come ChatGPT o Claude, ed è sempre più usato in ambiti come scrittura, programmazione, ricerca e customer service. ↩
  2. Il 29 luglio 2025 (questo articolo era stato inviato circa un mese prima) OpenAI ha annunciato il nuovo Study Mode di ChatGPT, il cui obiettivo è proporre un apprendimento più “guidato”: non risposte immediate, ma un percorso che procede per domande e spiegazioni passo passo.
    Questa novità rafforza un punto centrale di una delle riflessioni già indicate in questo articolo: già si parlava del paradosso dell’automazione cognitiva, sospesa tra l’aumento di produttività e il rischio di un apprendimento meno profondo. Ora diventa ancora più urgente chiedersi come strumenti di questo tipo possano essere integrati nei percorsi educativi, evitando che diventino scorciatoie prive di consapevolezza. Come sottolineano Yan et al. (2024), l’impiego dei Large Language Models nella formazione apre questioni pratiche ed etiche (dalla trasparenza alla privacy) che non si possono eludere facilmente se non con rischi palesi. Schiff (2022) avverte: se lasciamo che sia l’AI a dettare l’agenda (“AI for education”), rischiamo di perdere l’occasione di definire un approccio inverso, “education for AI”, capace di orientare sviluppo e uso di questi strumenti. Williamson (2024) ricorda che l’AI non è solo un supporto tecnico: entra nella vita quotidiana di scuole e università, modificando pratiche, ruoli e persino rapporti di potere. Infine, Noroozi et al. (2024) invitano a ripensare i modelli didattici in chiave ibrida, umano‑AI, valutandone non solo l’efficienza immediata ma anche l’impatto sulla crescita individuale e collettiva. Per questo strumenti come Study Mode non vanno considerati un “punto di arrivo” (usiamoli e poi vediamo), ma un’occasione per analizzare e ridisegnare i modelli educativi. Serve capire in quali condizioni favoriscono davvero un apprendimento critico, quali effetti possono avere nel breve e nel lungo periodo, e non soltanto in termini di risultati (voti, efficienza), ma di crescita personale e sociale. Solo in questo modo l’AI può diventare una vera alleata dell’apprendimento, e non una scorciatoia che erode capacità riflessive e di giudizio. Il tema dell’AI & education richiede un approfondimento molto più ampio, insieme a studi rigorosi, sostenuti da dati solidi, per rispondere alla domanda di fondo: quale modello di educazione vogliamo costruire nell’era dell’intelligenza artificiale?
    Yan, L., et al. (2024). Practical and ethical challenges of large language models in education: A systematic scoping review. British Journal of Educational Technology, 55(1), 90-112.
    Schiff, D. (2022). Education for AI, not AI for education: The role of education and ethics in national AI policy strategies. International Journal of Artificial Intelligence in Education, 32(3), 527-563.
    Williamson, B. (2024). The social life of AI in education. International Journal of Artificial Intelligence in Education, 34(1), 97-104.
    Noroozi, O., et al. (2024). Generative AI in Education: Pedagogical, Theoretical, and Methodological Perspectives. International Journal of Technology in Education, 7(3), 373-385. ↩
  3. Cosa sono le “allucinazioni” per un LLM? Le allucinazioni di un LLM si verificano quando il modello genera informazioni false o inventate che però sembrano plausibili e ben scritte. Non si tratta di errori casuali, ma di risposte prodotte sulla base delle probabilità linguistiche, senza un reale controllo sulla veridicità. Un LLM non "sa" cosa è vero o falso: costruisce frasi coerenti con ciò che ha appreso, anche se i fatti sono inesatti o completamente inventati. Un recente esempio (ma se ne trovano tantissimi altri, a dimostrazione di quanto sia capillare l’uso individuale dell’AI) riportato tra gli altri anche dal Washington Post riguarda il recente caso del rapporto "Make America Healthy Again" (MAHA) pubblicato dall’amministrazione USA, volto a evidenziare le cause del declino della salute infantile negli Stati Uniti. Il documento infatti è stato fortemente criticato per contenere numerose citazioni errate e riferimenti a studi inesistenti. Indagini hanno rivelato che molte di queste citazioni erano probabilmente generate da intelligenza artificiale, come indicato dai marcatori "oaicite" presenti nei riferimenti. ↩
  4. Esiste un ampio dibattito (tutt’ora in corso) per definire se quella che comunemente viene chiamata Intelligenza Artificiale, sia o meno una forma di intelligenza. Tra i contributi centrali a questo dibattito riportiamo il recente l'articolo del Prof. Luciano Floridi, pubblicato nel 2025 su Philosophy & Technology, che propone una nuova prospettiva sull’AI, interpretandola non come una forma di intelligenza tout court, ma come una nuova forma di agenzia artificiale priva di intelligenza. Floridi introduce infatti il concetto di "Agenzia Artificiale", sostenendo che l'AI dovrebbe essere interpretata come un agente capace di influenzare il mondo attraverso azioni, senza possedere necessariamente cognizione, intenzionalità o stati mentali. Floridi, L. (2025). AI as Agency without Intelligence: On Artificial Intelligence as a New Form of Artificial Agency and the Multiple Realisability of Agency Thesis. Philosophy & Technology, 38(1), 30. ↩

Immagine in anteprima via spherium.ai

Fonte
https://www.valigiablu.it/feed/