Wolfgang von Kempelen, inventore ungherese, nel 1769 presentò all’imperatrice Maria Teresa d’Austria un automa capace di giocare a scacchi. Non ebbe problemi a riprodurre movimenti e anatomie. Ma l’intelligenza artificiale no: risultò impossibile.
Eppure l’automa fu costruito e impressionava le corti d’Europa. Come aveva fatto von Kempelen? Sarebbe stato Edgar Allan Poe a svelare il mistero, in un articolo del 1836. Dentro l’automa era nascosto un uomo. Il Turco meccanico.
Oggi Amazon, con ironia e cinismo, chiama Mechanical Turk uno dei suoi programmi più ambiziosi. Una piattaforma che da anni offre microtask, cioè piccole operazioni ripetitive, e le paga pochi centesimi di dollaro. Qualche esempio: trascrivere il contenuto di un video; annotare i segni particolari di una faccia mostrata in un’immagine; trascrivere dati elettorali da un pdf. Al momento ci sono quasi mezzo milione di microattività online.
Il pagamento può avvenire anche attraverso coupon spendibili solo su Amazon. Così tutto rimane dentro l’ecosistema e la multinazionale non spende nulla. Ma non si tratta dell’unico caso. Ci sono decine di enormi piattaforme di microtask nel mondo. La più grande è cinese: secondo Antonio Casilli, docente a Parigi ed esperto di Digital Labour, avrebbe 800 milioni di utenti registrati.
Tanti piccoli uomini
Il principio è esattamente lo stesso del primo “Turco meccanico”. Dietro l’intelligenza artificiale ci sono tanti piccoli uomini. Generalmente localizzati nei paesi “in via di sviluppo”, dove la gente è costretta ad accettare lavori da pochi centesimi. Il problema è esattamente quello di due secoli fa: ancora oggi non esiste macchina capace di eguagliare il cervello umano.
Per fare un esempio banale, per un algoritmo è ancora difficile distinguere tra pesca come frutto o come attività di catturare un pesce. Allora la soluzione è comprendere l’intenzione umana (intent) addestrando le macchine (machine learning). L’obiettivo è creare sia motori di ricerca più performanti che i vari Siri e Alexa, cioè interfacce che comprendano i nostri ordini. Software in grado di eseguire un’istruzione (che arriva dalla tastiera o dalla voce) senza fraintendimenti.
Se il nostro telefono non comprende che vogliamo chiamare casa, poco male. Stessa cosa nell’automazione della casa (domotica) o nei droni che consegnano i pacchi. Ma se un’auto a guida automatica gira dal lato sbagliato può uccidere qualcuno. I campi di applicazione sono infiniti così come i rischi.
Con una enorme mole di dati, attraverso l’incrocio, una macchina può imparare a capire cosa intendiamo con “pesca” partendo dal soggetto che effettua la richiesta o che ordina qualcosa. Per esempio: una donna di 30 anni che si interessa al biologico e ha due figli, molto probabilmente, intenderà il frutto; un uomo di 50 senza famiglia penserà a catturare pesci. Il margine di errore esiste ma viene ridotto immagazzinando quantità sempre più imponenti di dati (big data). Oppure ancora, quando non è possibile conoscere il soggetto che effettua una richiesta, le macchine cercano di immagazzinare dati sul funzionamento standard del nostro cervello. Cioè su come ragioniamo associando le idee.
Invisible labour
Ci sono due categorie di persone che alimentano le informazioni: gli schiavi e tutti noi. Dei primi abbiamo detto. Sono gli utenti delle grandi piattaforme che pagano pochi centesimi a microtask. Con la variante della Cina, si riproducono gli antichi schemi coloniali. I cervelli e l’ingegneristica rimangono nei paesi occidentali, la forza lavoro nelle vecchie colonie. L’Asia rimane il bacino più importante, subito dopo c’è l’Africa.
Tutti noi siamo stati “assunti” – senza saperlo e senza compenso – nella fabbrica dell’intelligenza artificiale
Ma esistono altri lavoratori “assunti” di fatto nell’immensa fabbrica dell’intelligenza artificiale. Siamo tutti noi. Qualche anno fa la rivista Nature rivelò il caso del captcha. Google stava lavorando a una delle sue iniziative visionarie: Google Books. L’idea era scansionare tutti i libri del mondo. C’erano due ordini di problemi. La resistenza degli editori che reclamavano il riconoscimento del diritto d’autore. E i limiti delle tecnologie Ocr, cioè le difficoltà di trasferire le parole dal cartaceo al digitale.
L’idea fu di usare il captcha. Cioè gli utenti, per accedere a un form di Google, dovevano riconoscere e trascrivere strani caratteri deformati. Ufficialmente per motivi di sicurezza, nei fatti per aiutare il software (Ocr) a diventare più performante.
La rivelazione aprì nuovi scenari. Se lavoriamo per Google, possiamo chiedere di essere pagati? Alcuni presero la cosa sul serio e si arrivò in tribunale.
Per evitare altri problemi, la multinazionale californiana sostituì il captcha testuale con il riconoscimento di foto: cartelli stradali e automobili. Ma anche elicotteri militari, rivela Casilli. “Se clicco su un elicottero, sto forse lavorando per l’industria militare? Sto addestrando un sistema di armamenti a riconoscere un veicolo in volo? Google dovrebbe essere più trasparente”.
Nel frattempo, ogni giorno consegniamo a Mountain View una miniera di informazioni: età e sesso dal profilo dell’account; i nostri interessi dalle ricerche e dai messaggi Gmail; luoghi di interesse, mezzi di locomozione e tempi di spostamento dalle mappe. Apparentemente Google ci offre gratis servizi di qualità. In realtà si opera un enorme trasferimento di valore dalla collettività a un monopolista. Senza contropartita.