La versione in lingua inglese di Wikipedia ha introdotto un divieto esplicito sull’uso dell’intelligenza artificiale generativa per la creazione o riscrittura delle voci. La decisione segna un cambio di rotta importante per una delle piattaforme collaborative più influenti al mondo e arriva in risposta ai crescenti dubbi sull’affidabilità dei contenuti prodotti da modelli linguistici.
Secondo quanto riportato, l’uso di sistemi basati su large language models (LLM) “viola spesso diverse politiche fondamentali” dell’enciclopedia, tra cui verificabilità, neutralità e accuratezza delle fonti. In altre parole, il problema non è solo tecnologico, ma editoriale: contenuti generati automaticamente rischiano di compromettere la credibilità del progetto.
Le eccezioni: AI sì, ma sotto controllo umano
Nonostante il divieto, Wikipedia non chiude completamente le porte all’intelligenza artificiale. Gli editor potranno continuare a usare strumenti AI in due ambiti specifici:
- Revisione del testo: miglioramenti stilistici sono ammessi, ma solo se il contenuto viene verificato manualmente.
- Traduzioni: consentite esclusivamente a utenti competenti in entrambe le lingue, con controllo accurato delle informazioni.
Il motivo di queste limitazioni è chiaro: gli LLM possono alterare il significato originale dei testi, introducendo errori o affermazioni non supportate dalle fonti citate.
Una risposta culturale alla diffusione dell’AI
La decisione non è solo tecnica, ma anche culturale. Un amministratore della piattaforma, noto come Chaotic Enby, ha descritto il provvedimento come una forma di resistenza alla crescente invasione dell’AI nel web.
Secondo questa visione, il divieto potrebbe rappresentare l’inizio di un movimento più ampio: comunità online che scelgono autonomamente se e come integrare l’intelligenza artificiale, anziché subirne l’adozione imposta dalle aziende tecnologiche.
Non tutte le Wikipedia sono uguali
Un elemento cruciale è che Wikipedia non è un sistema centralizzato. Ogni versione linguistica opera con regole proprie. Questo significa che le politiche sull’AI possono variare sensibilmente:
- La Wikipedia in inglese ha introdotto un divieto con eccezioni limitate
- La versione spagnola ha adottato una linea ancora più dura, vietando completamente l’uso degli LLM
Questa frammentazione apre la porta a scenari diversi, con alcune comunità più permissive e altre decisamente restrittive.
Il nodo irrisolto: riconoscere i contenuti AI
Resta però una sfida aperta: identificare con certezza i testi generati da AI. Non esistono strumenti infallibili, e ciò significa che contenuti “sintetici” potrebbero comunque sfuggire ai controlli, soprattutto nelle pagine meno monitorate.
Questo limite evidenzia una tensione più ampia: mentre le piattaforme cercano di difendere l’integrità dei contenuti, la tecnologia continua a evolversi rapidamente, rendendo sempre più sottile il confine tra scrittura umana e artificiale.
In questo contesto, la scelta di Wikipedia rappresenta un segnale forte nel dibattito globale sull’uso responsabile dell’intelligenza artificiale nell’informazione online.
Se vuoi aggiornamenti su Internet inserisci la tua email nel box qui sotto:

