Wikipedia, Arriva L’intelligenza artificiale

March 9, 2021

Wikipedia, Arriva L’intelligenza artificiale

​​WIKIPEDIA è in cerca di un futuro. E si affida all’intelligenza artificiale per tentare di garantirselo. Gli utenti che contribuiscono alla compilazione della più grande enciclopedia online, modello paradigmatico di realizzazione condivisa, sono infatti in calo. Almeno nell’edizione in lingua inglese, che negli ultimi otto anni ha perso il 40% degli autori attivi, stabilizzandosi intorno alle 30mila firme. Un’élite che sottoscrive il sapere diffuso del pianeta. Diventare nuovi editor è infatti spesso complicato: di frequente le modifiche apportate non vengono accettate perché gli strumenti semiautomatici che sovrintendono il processo di accettazione e pubblicazione sono estremamente rigidi e scartano l’intervento appena caricato, anche se contiene errori minimali e trascurabili. Insomma, sarà pure user friendly per milioni di utenti (è stabilmente fra i primi dieci siti visitati al mondo, ha di fatto ucciso il mercato del sapere tradizionale, anche se pure sotto il profilo delle visite sono arrivati segnali di flessione) ma, vista dal punto d’osservazione di chi vorrebbe contribuire, correggere, aggiungere, specificare le voci, Wikipedia è un bel rompicapo.

Wikipedia è in continua evoluzione

Ecco perché la Wikimedia Foundation, l’ente no profit di base a San Francisco che supporta le attività di Wikipedia, le sta tentando tutte. Una, in particolare, sembra la strada su cui puntare: quella, appunto, dell’intelligenza artificiale. La soluzione è stata individuata in un software  –  ribattezzato Objective Revision Evaluation Service, meglio noto come Ores  –  che consenta di distinguere gli errori in buona fede, effettuati magari dai nuovi aspiranti collaboratori, dai vandali di contenuti. Tenendo dentro le modifiche effettuate dai primi, invitandoli magari a rivederle in modo meno drastico di quanto accada ora, e facendo pulizia senza pietà di quanto caricato dai secondi.

Il progetto è stato messo a punto da Aaron Halfaker, un ricercatore che lavora per la fondazione californiana, e punta dunque a non spaventare chi voglia avvicinarsi a un lavoro (volontario, s’intende) più attivo sulla piattaforma. Il sistema utilizza un set di algoritmi open source noti come SciKit Learn per scandagliare le modifiche dannose e separarle dai cambiamenti prodotti dai benintenzionati, anche se contenenti delle imprecisioni. Ottenendo così un duplice risultato: ripulire la più consultata enciclopedia del pianeta dalle numerose imperfezioni e dai rischi di bufale e complete falsità e, d’altra parte, tentare d’invertire il declino degli editor, dando il via a una nuova stagione di collaborazione.

Il Machine Learning non avrà limiti di apprendimento

Ores, come tutti i sistemi di machine learning – alla pari di quelli utilizzati e sviluppati da altri colossi come Google o Facebook – può imparare e raffinarsi nel tempo, classificando la qualità delle modifiche effettuate e stabilendo dunque quelle prodotte in buona fede o meno. Anche su Wikipedia, infatti, la fabbrica dei tarocchi non chiude mai: esistono società e aziende che sfruttano editor mercenari pronti a intervenire sulle voci indicate per forzarne i contenuti e piegarli secondo i desiderata dei committenti. Per paradosso, però, le troppe regole poste dal meccanismo sembrano appesantirlo eccessivamente, allontanando anche le energie fresche. “L’atteggiamento aggressivo che hanno gli utenti di Wikipedia nel controllare i contenuti modificati proviene dal fatto che non sono incoraggiati ad avere un’interazione umana con le persone” ha detto Halaker alla Mit Technology Review. Il sistema si occuperà anche di questo: rendere i rapporti più lineari e meno traumatici. Ores funzionerà inizialmente nelle versioni in inglese, portoghese, turco e farsi di Wikipedia. Insomma, per apprezzarne i risultati in italiano bisognerà aspettare un po’.

PRONTO A Decollare?