Intelligenza artificiale e democrazia

Intelligenza artificiale, la minaccia per l’informazione e la democrazia è evidente e già immanente. Lo dimostra il Wall Street Journal - MilanoFinanza News

L’intelligenza artificiale è fuori dal controllo democratico

L’intelligenza artificiale è fuori dal controllo democratico​

l%C3%AA-nguy%C3%AAn-hoang.png


Abbiamo un disperato bisogno di maggiore attenzione, manodopera e fondi per istituire sistemi di governance delle intelligenze artificiali (IA) simili a quelli introdotti nelle industrie aeree, farmaceutiche e alimentari.​

Questo contenuto è stato pubblicato il 14 aprile 2023 - 10:1114 aprile 2023 - 10:118 minuti
L'opinione di Lê Nguyên Hoang
Altre lingue: 9


Il 29 marzo è stata pubblicata una lettera apertaLink esterno che chiede di "sospendere i maxi esperimenti di IA" e che finora è stata firmata da più di 20’000 accademici, accademiche e leader nel campo tecnologico. Questo appello è atteso da tempo.
Nell'ultimo decennio sono stati sviluppati in fretta e furia algoritmi impressionanti, distribuiti su larga scala, come ChatGPT e MidJourney. IA simili sono state ampiamente commercializzate per il rilevamento delle frodi, il filtraggio dei curriculum, la videosorveglianza e il servizio clienti (spesso nonostante le note carenzeLink esterno e i pregiudiziLink esterno). Ma la loro applicazione principale è probabilmente il marketing. Molti dei più grandi giganti tecnologici di oggi, come Google, TikTok e Meta, traggono profitto soprattutto dalla pubblicità mirata. Il fatto che il primo cliente conosciuto di ChatGPT sia stato nientemeno che Coca-Cola, dovrebbe già essere un segnale di allarme.

A proposito dell'autore​

È stato dimostrato, inoltre, che gli algoritmi diffondono disinformazione, raccomandano pseudo-medicine, mettono in pericolo la salute mentaleLink esterno e sono stati utilizzati per controllare mercati illegaliLink esterno (persino la schiavitù). Hanno anche alimentato l'odio, aiutato a destabilizzare le democrazie e persino contribuito ai genocidiLink esterno, come affermato dalle Nazioni Unite e da Amnesty International. Gli algoritmi minacciano la sicurezza nazionale.
Eppure, il loro sviluppo è estremamente opaco. Quasi nessuna entità esterna può sbirciare gli algoritmi di Google, Meta o OpenAI. Le forze di opposizione interne sono state addirittura eliminate: Google ha licenziato il suo team di etica, Meta ha smantellato la squadra di innovazione responsabile e Microsoft ha licenziato il suo staff di etica dopo che questi aveva lanciato l'allarme su un'implementazione affrettata, amorale e insicura. Le potenti aziende in cerca di profitto sono riuscite a creare uno spazio mondiale in cui i loro algoritmi possono essere progettati senza quasi alcuna responsabilità.

Altri sviluppi​

Altri sviluppi
Scolara al computer

ChatGPT: intelligenza, stupidità o malvagità artificiali?​

Questo contenuto è stato pubblicato il 08 apr 202308 apr 2023 Ha la risposta a tutto e parla come un libro, ma quanto ci si può fidare di ChatGPT?

È urgente una governance efficace dell'IA​

L'industria del software non è certo la prima a essere fuori controllo. Per decenni, le industrie aerea, automobilistica, farmaceutica, alimentare, del tabacco, delle costruzioni e dell'energia, e molte altre, hanno commercializzato prodotti non controllati. Questo è costato milioni di vite. Le società pubbliche si sono infine opposte all'allarmante mancanza di responsabilità. In tutte le democrazie, leggi severe e potenti agenzie di regolamentazione ben finanziate impongono ora un controllo democratico su questi mercati. L'industria del software ha bisogno di una sorveglianza simile.
Dobbiamo urgentemente favorire tecnologie sicure ed etiche, piuttosto che chiedere ai nostri Paesi di guidare la corsa alle IA più appetibili. Concretamente, la potenza degli algoritmi che gestiscono le nostre reti intelligenti, le automobili, gli aerei, le centrali elettriche, le banche, i centri dati, i social network e gli smartphone dovrebbe essere molto meno importante della loro sicurezza informatica. Come abbiamo avvertito, io e il mio collega El Mahdi El Mhamdi, in un libro del 2019Link esterno: se questi algoritmi sono fragili, vulnerabili, retrodatati o esternalizzati a un fornitore inaffidabile, o se abusano dei diritti umani – cosa che spesso accadeLink esterno – allora siamo tutti in grave pericolo.
"Dobbiamo urgentemente favorire tecnologie sicure ed etiche, piuttosto che chiedere ai nostri Paesi di guidare la corsa alle IA più appetibili."
End of insertion
Tuttavia, l'industria del software e il mondo accademico, così come gli attuali incentivi legali ed economici, ostacolano soprattutto la mentalità della sicurezza. Troppo spesso i ricercatori e le ricercatrici più citati, più celebrati e più finanziati, le posizioni lavorative meglio retribuite e le aziende di maggior successo sono quelle che trascurano la sicurezza informatica e l'etica. Secondo un numero crescente di esperti ed esperte, questa situazione deve cambiare. Con urgenza.
Le nostre democrazie probabilmente non possono permettersi i decenni necessari per istituire leggi e agenzie di controllo in altri settori. Considerato il ritmo con cui vengono sviluppati e utilizzati gli algoritmi più sofisticati, abbiamo solo una finestra di tempo molto piccola per agire. La lettera aperta firmata da me e da altri ricercatori e ricercatrici di IA mira a estendere leggermente questa finestra.

Cosa potete fare voi, le vostre organizzazioni e le nostre istituzioni​

L'installazione di un controllo democratico sugli algoritmi attualmente più critici è un'impresa urgente, enorme e grandiosa che non sarà raggiunta a tempo debito senza la partecipazione di un gran numero di individui con talenti, competenze e responsabilità diverse.
La prima sfida è l'attenzione. Dobbiamo tutti e tutte investire con urgenza molto più tempo, energia e fondi per assicurarci che i nostri colleghi e le nostre colleghe, le nostre organizzazioni e le nostre istituzioni prestino molta più attenzione alla sicurezza informatica. I e le dipendenti delle Big Tech non devono più essere invitati e celebrati, soprattutto nelle università e nei media, senza aver messo in discussione la sicurezza e l'etica dei prodotti che finanziano il loro lavoro. Più in generale, in tutte le discussioni sulla tecnologia bisogna chiedersi "cosa può andare storto?".
Una seconda sfida è quella istituzionale. Sebbene siano necessarie nuove leggi, è probabile che oggi gli algoritmi su larga scala stiano già violando le leggi esistenti, come nel caso dei profitti derivanti dalle truffeLink esterno basate sugli annunci. Tuttavia, l'attuale mancanza di una supervisione esterna impedisce che venga fatta giustizia. Dobbiamo chiedere alla classe politica di istituire agenzie di regolamentazione ben finanziate per far rispettare la legge online.
La Svizzera ha spesso svolto un ruolo esemplare nel definire le norme democratiche. Questa è un'opportunità per portare avanti una simile tradizione nobile. Inoltre, l'arco lemanico (l'area intorno al lago di Ginevra) punta a diventare una Trust ValleyLink esterno nel campo della fiducia digitale e della cybersicurezza. Il rafforzamento delle organizzazioni di ispezione e di sicurezza informatica sarà probabilmente la chiave per essere considerati tali a livello mondiale.
Una terza sfida consiste nel progettare alternative sicure, governate democraticamente, agli algoritmi odierni di maggiore impatto. È a questo che ho dedicato la maggior parte degli ultimi cinque anni: io e un gruppo di colleghi e colleghe abbiamo dato vita al progetto non profit Tournesol.Link esterno In sostanza, l'algoritmo di Tournesol è il risultato di una votazione sicura ed equa sul suo comportamento preferito da parte della comunità che contribuisce a Tournesol, alla quale chiunque può unirsi.
Quanto prima daremo la priorità alla sicurezza dei nostri ecosistemi informatici, tanto prima avremo la possibilità di proteggere le nostre società dall’enorme vulnerabilità della sicurezza informatica.
A cura di Sabina Weiss
Traduzione dall'inglese: Sara Ibrahim

Le opinioni espresse in questo articolo sono esclusivamente quelle dell'autore e non riflettono necessariamente le opinioni di SWI swissinfo.ch.
L'esperto di IA Jürgen Schmidhuber pensa invece che chiedere una moratoria sullo sviluppo di IA potenti sia inutile e controproducente. Leggete la sua opinione:
https://www.swissinfo.ch/ita/scienz...de-non-fermeranno-la-corsa-all-ia---/48430744
 
Intelligenza artificiale, quali rischi per la democrazia (e quali regole) - Agenda Digitale

l vero pericolo per la democrazia è l’intelligenza artificiale. Altro che le fake news. L’intelligenza artificiale fatta da sviluppatori che – nemmeno loro – sanno quali decisioni possa prendere (data l’opacità degli algoritmi deep learning). Intelligenza artificiale abbinata a grandi masse di dati, nelle mani di una oligarchia tecnologica.

Ora, è una tesa molto dibattuta che il possesso di una quantità enorme di dati sui comportamenti, le abitudini, le aspettative delle persone – sia considerate singolarmente sia collocate in gruppi da parte di un numero ristretto di soggetti, i cosiddetti nuovi “baroni” – metta a rischio il futuro della democrazia.

Il vero interrogativo che dobbiamo porci di fronte a questa prospettiva, tuttavia, non si limita al chiederci dove vada la democrazia; ma dove vada l’umanità e il suo rapporto con le macchine. E quali regole bisogna porre a difesa – nella protezione dati e antitrust, per esempio.
 
noi abbiamo messo un giovane esperto a presiedere il comitato per l'intelligenza artificiale
Giuliano amato fondatore del partito democratico
esperto di tecnologia ma soprattutto di democrazia
che nel 1992 derubó molto democraticamente nella notte i conti correnti degli italiani

siamo a cavallo, per la democrazia non abbiamo nulla da temere
abbiamo capito l'errore e l'abbiamo sostituito con un frate che insegna teologia
:clap:
siamo sempre i migliori
 
Kashmir Hill, il volto inquieto della democrazia | il manifesto

...Come ha fatto una piccola startup tecnologica ad accumulare nel proprio database qualcosa come 30 miliardi di volti, crescendo, come lei spiega dopo aver incontrato il fondatore, Hoan Ton-That, al ritmo di 75 milioni di immagini al giorno?
Nel frattempo siamo arrivati a 40 miliardi di volti… e la loro crescita non sembra volersi interrompere. Più che le caratteristiche specifiche di questa startup, a pesare nel raggiungere tali risultati, a fare la differenza rispetto al passato, è stato il cambiamento tecnologico: gli strumenti a disposizione per la raccolta delle immagini e relativi al riconoscimento facciale sono infatti sempre più accessibili.

---

Un «mercato» che alimentiamo noi stessi attraverso le immagini che postiamo sui social…
Certo, in fondo è vero che siamo noi stessi a contribuire a questa industria. Perché, ad esempio, le foto che postiamo su Facebook ci ritraggono in tante situazioni diverse, in vacanza, insieme agli amici, ai parenti, ai nostri affetti, nel quotidiano… Ci siamo taggati anni fa e quelle immagini continuano a ricondurre a noi quando le società le «raschiano» abusivamente. Perciò, l’unica cosa che possiamo fare per tentare di invertire la tendenza è rendere private queste immagini, riservarle a una cerchia ristretta di persone. Quando le condividiamo con tutti, non abbiamo più nessun tipo di controllo.
 
è così, basta utilizzare youtube per rendersi conto quanto potente sia la capacità di selezionare contenuti per l'utente e filtrarne tra milioni possibili, senza la giusta mente critica si finisce in una 'bolla' che alimenta se stessa, vale chiaramente per ogni tipo di social.
 
Kashmir Hill, il volto inquieto della democrazia | il manifesto

...Come ha fatto una piccola startup tecnologica ad accumulare nel proprio database qualcosa come 30 miliardi di volti, crescendo, come lei spiega dopo aver incontrato il fondatore, Hoan Ton-That, al ritmo di 75 milioni di immagini al giorno?
Nel frattempo siamo arrivati a 40 miliardi di volti… e la loro crescita non sembra volersi interrompere. Più che le caratteristiche specifiche di questa startup, a pesare nel raggiungere tali risultati, a fare la differenza rispetto al passato, è stato il cambiamento tecnologico: gli strumenti a disposizione per la raccolta delle immagini e relativi al riconoscimento facciale sono infatti sempre più accessibili.

---

Un «mercato» che alimentiamo noi stessi attraverso le immagini che postiamo sui social…
Certo, in fondo è vero che siamo noi stessi a contribuire a questa industria. Perché, ad esempio, le foto che postiamo su Facebook ci ritraggono in tante situazioni diverse, in vacanza, insieme agli amici, ai parenti, ai nostri affetti, nel quotidiano… Ci siamo taggati anni fa e quelle immagini continuano a ricondurre a noi quando le società le «raschiano» abusivamente. Perciò, l’unica cosa che possiamo fare per tentare di invertire la tendenza è rendere private queste immagini, riservarle a una cerchia ristretta di persone. Quando le condividiamo con tutti, non abbiamo più nessun tipo di controllo.
Sono anni che mi domando perché la gente mette i ***** suoi online.
Adesso è arrivato quello del formaggio che si chiama AI

Chissà che bei risultati però dovrebbero conseguire guardia di finanza e fisco , ma anche le forze dell ordine .
Per me AI, internet , sono tecnologie utilissime ma ovviamente c’è il rovescio della medaglia .

Se io parlo di Lamborghini con un amico, e dopo 10 minuti apro Facebook, mi escono Lamborghini in vendita , gruppi sulla Lamborghini ecc ecc quindi è pacifico che il cell registra ogni singola parola che dico .
A me onestamente nn me ne frega niente, nn credo proprio che l AI possa sostituire medici o altre professioni come la mia dove c’è solo da bestemmiare.
Ovvio che Terminator venuto dal futuro faceva paura, se penso all AI in campo bellico mi vengono i brividi.
 
mi ha impressionato molto una breve intervista a Elon Musk il quale ha detto che già oggi la AI è notevolmente più intelligente e capace del cervello umano e che ci sono problemi molto grossi per il futuro perchè se non verrà gestita bene rischiamo di diventare schiavi delle macchine
Capirai a chiedere all oste se il vino è buono cosa vuoi che ti risponda . Un computer nn avrà mai le capacità di un uomo intelligente…..magari di uno testardo come un mulo quello si
 
chi non capisce i pericoli dell'AI vive in un mondo parallelo
che non esiste più

è così ovvio che non occorre spendere parole

e questo non solo nei sistemi dittatoriali
ma anche in quelli c.d. 'democratici


elementar watson
 
"Attraverso un uso distorto della tecnologia si riesce, già oggi - sottolinea il Capo dello Stato - ad alterare, in maniera difficilmente avvertibile, dichiarazioni, video, filmati, tagliando brani, isolando frasi, rimontando abusivamente. Con l’intelligenza artificiale è possibile produrre scenari virtuali apparentemente credibili ma totalmente ingannevoli. È concreto il rischio di trovarsi a vivere in futuro in dimensioni parallele, in cui realtà e verità non siano distinguibili dalla falsità e dalla manipolazione: ne risulterebbe travolto lo spirito critico. E, con esso, la libertà che è alla base dei diritti di ciascuno".

"Il fenomeno - ribadisce Mattarella - deve essere, pertanto, regolato, necessariamente e urgentemente, nell’interesse –ripeto– delle persone, dei cittadini, ma sappiamo che questa fondamentale esigenza incontra difficoltà a causa delle dimensioni e del potere di condizionamento degli operatori del settore. La cui presunzione di divenire protagonisti che dettano le regole, anziché essere destinatari di regolamentazione, si è già manifestata in più occasioni".

Ecchelalla .... cosa dicevo sopra? :D
 
Ben vengano le regole, quindi, ma è davvero plausibile che non si potesse giungere prima a capire che l’impatto dell’AI nella vita delle persone andasse normato? In una recente intervista, la professoressa Daniela Tafani, insegnante di Etica e Politica dell’Intelligenza Artificiale all’Università di Pisa spiegava senza mezzi termini come buona parte dei prodotti che utilizzano l’AI sia di fatto illegale secondo le norme vigenti, anche se a noi viene fatto credere il contrario, ovvero che la tecnologia sia così rivoluzionaria che le leggi esistenti non siano sufficienti e servano regole ad hoc.

L’esempio portato dalla professoressa Tafani era tanto semplice quanto calzante: nessuno ha dubbi in merito all’inviolabilità della posta personale e nessuno mette in discussione che leggere la posta di un altro sia un reato, eppure è ciò che le grandi società fanno comunemente con la nostra posta elettronica, a fini commerciali e di profilazione.




AS:Professoressa, quindi le norme per regolamentare l’intelligenza artificiale e le tecnologie che ne fanno uso esistono già?

DT:La tesi che le leggi vigenti non si applichino ai prodotti basati su sistemi di «intelligenza artificiale», in virtù della loro novità e straordinarietà, e che servano dunque nuove leggi, scritte ad hoc per ciascuna tecnologia, serve alle grandi aziende a dar luogo a una corsa che vedrà il legislatore perennemente in affanno, nel rincorrere le più recenti novità tecnologiche, le quali saranno dunque commercializzabili eslege. In assenza di precedenti, pur in presenza di una risposta del diritto, è possibile che vi siano dubbi sul significato di quella risposta (ossia una «vaghezza giuridica») o che la risposta non sia ritenuta soddisfacente e che sia opportuno, perciò, adottare regolamenti specifici. È essenziale, però, tener presente che le leggi vigenti si applicano anche ai sistemi di “intelligenza artificiale”, perché questi sono artefatti, prodotti del lavoro umano. L’esempio della posta è pertinente: nessuno è autorizzato ad aprire le mie lettere e a cercarvi informazioni che qualche inserzionista pubblicitario sia disposto a comprare. Ma le grandi aziende tecnologiche a cui, incautamente, le persone affidano la loro posta elettronica, fanno esattamente questo. Ci sono aziende che vantano la loro capacità di registrare l’audio delle nostre conversazioni, attraverso gli smartphone o i televisori e offrono, a pagamento, informazioni su cosa abbiamo detto.

AS:Rispetto all’AI Act e alla sua lenta gestazione, possiamo realmente permetterci lungaggini burocratiche quando si tratta di AI o, al contrario, è necessario prendersi del tempo e riflettere?


DT:I sistemi che violano infallibilmente diritti e che non funzionano, quali la polizia predittiva o il riconoscimento delle emozioni, avrebbero dovuto essere proibiti tout court. Lo si sarebbe potuto fare in tempi brevissimi. L’attività di lobbying delle Big Tech, a Bruxelles, ha fatto sì che l’impostazione dell’AI Act sia l’approccio basato sui rischi, anziché, come dovrebbe essere in qualsiasi Stato di diritto, una preliminare valutazione di compatibilità con il rispetto dei diritti fondamentali.

(Foto Foto Shutterstock)


AS:Restando sulla questione del tempo, in questi anni il rilascio e l’utilizzo delle tecnologie è stato governato dalle veloci logiche del mercato. Quanto questo meccanismo ha pesato in termini di possibilità normativa sull’AI? Se la risposta normativa fosse stata più veloce e puntuale, adesso vivremmo una situazione differente?

DT:La normativa c’era già, sarebbe bastato farla rispettare. Ci sono persone, in questi giorni, che vedono, tra le immagini prodotte dai generatori di immagini, foto di sé stesse all’ospedale, intubate. Ovviamente, avevano dato il consenso al trattamento dei loro dati per essere curate, non certo per finire nei dati di partenza e quindi anche negli output dei generatori di immagini. Su questo aspetto, alcuni recenti provvedimenti della Federal Trade Commission statunitense mostrano una radicalità nuova: in alcuni casi di dati ottenuti impropriamente, essa ha ottenuto infatti non la mera cancellazione di tali dati, ma la distruzione di tutti i modelli e gli algoritmi costruiti utilizzando tali dati.

AS:Quando il controllore è stato puntuale, ha giocato un ruolo fondamentale la reputazione dell’intelligenza artificiale. Mi riferisco alla vicenda fra Open AI e il suo prodotto di punta Chat GPT e il garante della privacy italiano che ne ha inizialmente bloccato l’utilizzo nel nostro paese. Pur essendo verifiche lecite è parso ai più che si trattasse di una dimostrazione di bigottismo verso le nuove tecnologie. La fiducia che riponiamo in questi prodotti sta permettendo che agiscano al di sopra dalle regole?

DT:Sono le narrazioni (idee trasmesse nella forma di storie) diffuse dalle grandi compagnie tecnologiche a dar forma alla percezione pubblica del rapporto tra etica, politica, diritto e tecnologia. Tra queste, ci sono il principio dell’inevitabilità della tecnologia e il principio di innovazione, ossia l’assunto che qualsiasi innovazione tecnologica sia foriera di competitività e occupazione e debba perciò essere assecondata. In realtà, i grandi monopoli ostacolano qualsiasi innovazione, per quanto dirompente e benefica, che non si adatti al loro modello di business: promuovono un’innovazione tossica che estrae o distrugge valore, anziché produrlo. I nostri diritti non sono in contrasto con il principio di innovazione. Il contrasto è tra i nostri diritti e i modelli di business fondati sulla sorveglianza.




AS:Leggendo l’AI Act e cosa bloccherà c’è da rabbrividire. Le intelligenze artificiali hanno già tutto questo controllo sulle nostre vite?

DT:Meredith Whittaker, la Presidente di Signal, ha detto che l’intelligenza artificiale è un derivato della sorveglianza. Ha ragione. Come ha scritto Cory Doctorow, oggi i miei diritti valgono solo se chi li viola non usa un’app.

AS:Esiste un problema di mantenimento della dignità e del proprio status di persona fisica che dovremo imparare a tutelare e ancor prima a riconoscere?

DT:I generatori di testo o di immagini consentono oggi truffe e manipolazioni su larghissima scala. D’altra parte, sistemi quali ChatGPT, che generano testi plausibili e convincenti, ma senza riferimento al vero o al falso, sono utili quasi solo per questo genere di attività. E, poiché questi effetti erano stati ampiamente previsti, i produttori dovrebbero esserne ritenuti responsabili. Daniel Dennet ha osservato che esistono pene severe per chi mette in circolazione denaro falso e che un’analoga severità servirebbe verso chi, mettendo ancor più rischio le fondamenta delle società democratiche, crei e metta in circolazione “persone contraffatte”. Quanto alla nostra dignità di persone, ossia al nostro status di soggetti giuridici, questo dovrebbe bastare a far dichiarare illegali tutti i sistemi di ottimizzazione predittiva, con i quali si finge di poter prevedere, da una foto, da un video o da un insieme di dati, se una singola persona sarà un bravo lavoratore oppure se commetterà o no un crimine. Non siamo cose, di cui si possa prevedere infallibilmente il futuro. Siamo persone. Io so che il litro di latte che ho nel frigo sarà andato a male, tra una settimana, ma non posso sapere se Lei commetterà un crimine, nei prossimi sette giorni. Come ricorda Maria Chiara Pievatolo, il fatto che gli studenti provenienti da specifici paesi stranieri abbiano avuto bisogno, in passato, di ripetere l’esame più volte, non ci autorizza a chiedere a uno studente da dove venga e a bocciarlo due o tre volte, se è straniero. Affidarsi a sistemi automatici, invece, dà luogo esattamente a questo genere di esiti.

Conosco i miei polli, l'AI act servira' per tutelare lo status quo ed impedire che un Sir Wildman qualsiasi possa competere e battere chi nel sistema e' "piu' uguale degli altri".

Scommettiamo che cercheranno in tutti i modi di fermare, come priorita', i meme politici? :asd:

Lo so, e' una stronzat***, ma cerchiamo di capire quali sono i loro problemi. La propaganda per loro e' un asset chiave. SSe un pirla qualsiasi con una scheda video e un po' di maestria puo' contrastarli allora per loro diventa un incubo. Preservare la verita'? Quale verita'?SIamo gia' da anni nella post verita'. Gia' oggi tutti si fanno un'idea su argomento qualsiasi in base ad informazioni parziali e faziose. Davvero vogliamo credere che in una societa' cosi' polarizzata un video o un'immagine fake cambia un'elezione?
Perche' in questi anni non s'e' parlato dei sistemi di censura automatizzata basati su AI? Perche' erano funzionali al sistema e allo status quo?
 
stiamo già tutti sottosservazione

futuro buio se non la pensi come dispone la narrativa dominante
 
stiamo già tutti sottosservazione

futuro buio se non la pensi come dispone la narrativa dominante

Infatti. Non c'è alcun bisogno di chip impiantati nei cervelli dissidenti.
I cervelli dissidenti sono sono ormai tutti sotto controllo...
Controllabili dagli stessi server che controllano i nostri elettrodomestici
da remoto. Internet delle cose al servizio dei vari regimi politici nel controllo del dissenso.
 
Indietro