Trasparente2
Lacrime & Sangue
- Registrato
- 3/8/20
- Messaggi
- 12.912
- Punti reazioni
- 954
Follow along with the video below to see how to install our site as a web app on your home screen.
Nota: This feature may not be available in some browsers.
abbiamo capito l'errore e l'abbiamo sostituito con un frate che insegna teologianoi abbiamo messo un giovane esperto a presiedere il comitato per l'intelligenza artificiale
Giuliano amato fondatore del partito democratico
esperto di tecnologia ma soprattutto di democrazia
che nel 1992 derubó molto democraticamente nella notte i conti correnti degli italiani
siamo a cavallo, per la democrazia non abbiamo nulla da temere
mi ha impressionato molto una breve intervista a Elon Musk il quale ha detto che già oggi la AI è notevolmente più intelligente e capace del cervello umano e che ci sono problemi molto grossi per il futuro perchè se non verrà gestita bene rischiamo di diventare schiavi delle macchine
Sono anni che mi domando perché la gente mette i ***** suoi online.Kashmir Hill, il volto inquieto della democrazia | il manifesto
...Come ha fatto una piccola startup tecnologica ad accumulare nel proprio database qualcosa come 30 miliardi di volti, crescendo, come lei spiega dopo aver incontrato il fondatore, Hoan Ton-That, al ritmo di 75 milioni di immagini al giorno?
Nel frattempo siamo arrivati a 40 miliardi di volti… e la loro crescita non sembra volersi interrompere. Più che le caratteristiche specifiche di questa startup, a pesare nel raggiungere tali risultati, a fare la differenza rispetto al passato, è stato il cambiamento tecnologico: gli strumenti a disposizione per la raccolta delle immagini e relativi al riconoscimento facciale sono infatti sempre più accessibili.
---
Un «mercato» che alimentiamo noi stessi attraverso le immagini che postiamo sui social…
Certo, in fondo è vero che siamo noi stessi a contribuire a questa industria. Perché, ad esempio, le foto che postiamo su Facebook ci ritraggono in tante situazioni diverse, in vacanza, insieme agli amici, ai parenti, ai nostri affetti, nel quotidiano… Ci siamo taggati anni fa e quelle immagini continuano a ricondurre a noi quando le società le «raschiano» abusivamente. Perciò, l’unica cosa che possiamo fare per tentare di invertire la tendenza è rendere private queste immagini, riservarle a una cerchia ristretta di persone. Quando le condividiamo con tutti, non abbiamo più nessun tipo di controllo.
Capirai a chiedere all oste se il vino è buono cosa vuoi che ti risponda . Un computer nn avrà mai le capacità di un uomo intelligente…..magari di uno testardo come un mulo quello simi ha impressionato molto una breve intervista a Elon Musk il quale ha detto che già oggi la AI è notevolmente più intelligente e capace del cervello umano e che ci sono problemi molto grossi per il futuro perchè se non verrà gestita bene rischiamo di diventare schiavi delle macchine
"Attraverso un uso distorto della tecnologia si riesce, già oggi - sottolinea il Capo dello Stato - ad alterare, in maniera difficilmente avvertibile, dichiarazioni, video, filmati, tagliando brani, isolando frasi, rimontando abusivamente. Con l’intelligenza artificiale è possibile produrre scenari virtuali apparentemente credibili ma totalmente ingannevoli. È concreto il rischio di trovarsi a vivere in futuro in dimensioni parallele, in cui realtà e verità non siano distinguibili dalla falsità e dalla manipolazione: ne risulterebbe travolto lo spirito critico. E, con esso, la libertà che è alla base dei diritti di ciascuno".
"Il fenomeno - ribadisce Mattarella - deve essere, pertanto, regolato, necessariamente e urgentemente, nell’interesse –ripeto– delle persone, dei cittadini, ma sappiamo che questa fondamentale esigenza incontra difficoltà a causa delle dimensioni e del potere di condizionamento degli operatori del settore. La cui presunzione di divenire protagonisti che dettano le regole, anziché essere destinatari di regolamentazione, si è già manifestata in più occasioni".
Ben vengano le regole, quindi, ma è davvero plausibile che non si potesse giungere prima a capire che l’impatto dell’AI nella vita delle persone andasse normato? In una recente intervista, la professoressa Daniela Tafani, insegnante di Etica e Politica dell’Intelligenza Artificiale all’Università di Pisa spiegava senza mezzi termini come buona parte dei prodotti che utilizzano l’AI sia di fatto illegale secondo le norme vigenti, anche se a noi viene fatto credere il contrario, ovvero che la tecnologia sia così rivoluzionaria che le leggi esistenti non siano sufficienti e servano regole ad hoc.
L’esempio portato dalla professoressa Tafani era tanto semplice quanto calzante: nessuno ha dubbi in merito all’inviolabilità della posta personale e nessuno mette in discussione che leggere la posta di un altro sia un reato, eppure è ciò che le grandi società fanno comunemente con la nostra posta elettronica, a fini commerciali e di profilazione.
AS:Professoressa, quindi le norme per regolamentare l’intelligenza artificiale e le tecnologie che ne fanno uso esistono già?
DT:La tesi che le leggi vigenti non si applichino ai prodotti basati su sistemi di «intelligenza artificiale», in virtù della loro novità e straordinarietà, e che servano dunque nuove leggi, scritte ad hoc per ciascuna tecnologia, serve alle grandi aziende a dar luogo a una corsa che vedrà il legislatore perennemente in affanno, nel rincorrere le più recenti novità tecnologiche, le quali saranno dunque commercializzabili eslege. In assenza di precedenti, pur in presenza di una risposta del diritto, è possibile che vi siano dubbi sul significato di quella risposta (ossia una «vaghezza giuridica») o che la risposta non sia ritenuta soddisfacente e che sia opportuno, perciò, adottare regolamenti specifici. È essenziale, però, tener presente che le leggi vigenti si applicano anche ai sistemi di “intelligenza artificiale”, perché questi sono artefatti, prodotti del lavoro umano. L’esempio della posta è pertinente: nessuno è autorizzato ad aprire le mie lettere e a cercarvi informazioni che qualche inserzionista pubblicitario sia disposto a comprare. Ma le grandi aziende tecnologiche a cui, incautamente, le persone affidano la loro posta elettronica, fanno esattamente questo. Ci sono aziende che vantano la loro capacità di registrare l’audio delle nostre conversazioni, attraverso gli smartphone o i televisori e offrono, a pagamento, informazioni su cosa abbiamo detto.
AS:Rispetto all’AI Act e alla sua lenta gestazione, possiamo realmente permetterci lungaggini burocratiche quando si tratta di AI o, al contrario, è necessario prendersi del tempo e riflettere?
DT:I sistemi che violano infallibilmente diritti e che non funzionano, quali la polizia predittiva o il riconoscimento delle emozioni, avrebbero dovuto essere proibiti tout court. Lo si sarebbe potuto fare in tempi brevissimi. L’attività di lobbying delle Big Tech, a Bruxelles, ha fatto sì che l’impostazione dell’AI Act sia l’approccio basato sui rischi, anziché, come dovrebbe essere in qualsiasi Stato di diritto, una preliminare valutazione di compatibilità con il rispetto dei diritti fondamentali.
(Foto Foto Shutterstock)
AS:Restando sulla questione del tempo, in questi anni il rilascio e l’utilizzo delle tecnologie è stato governato dalle veloci logiche del mercato. Quanto questo meccanismo ha pesato in termini di possibilità normativa sull’AI? Se la risposta normativa fosse stata più veloce e puntuale, adesso vivremmo una situazione differente?
DT:La normativa c’era già, sarebbe bastato farla rispettare. Ci sono persone, in questi giorni, che vedono, tra le immagini prodotte dai generatori di immagini, foto di sé stesse all’ospedale, intubate. Ovviamente, avevano dato il consenso al trattamento dei loro dati per essere curate, non certo per finire nei dati di partenza e quindi anche negli output dei generatori di immagini. Su questo aspetto, alcuni recenti provvedimenti della Federal Trade Commission statunitense mostrano una radicalità nuova: in alcuni casi di dati ottenuti impropriamente, essa ha ottenuto infatti non la mera cancellazione di tali dati, ma la distruzione di tutti i modelli e gli algoritmi costruiti utilizzando tali dati.
AS:Quando il controllore è stato puntuale, ha giocato un ruolo fondamentale la reputazione dell’intelligenza artificiale. Mi riferisco alla vicenda fra Open AI e il suo prodotto di punta Chat GPT e il garante della privacy italiano che ne ha inizialmente bloccato l’utilizzo nel nostro paese. Pur essendo verifiche lecite è parso ai più che si trattasse di una dimostrazione di bigottismo verso le nuove tecnologie. La fiducia che riponiamo in questi prodotti sta permettendo che agiscano al di sopra dalle regole?
DT:Sono le narrazioni (idee trasmesse nella forma di storie) diffuse dalle grandi compagnie tecnologiche a dar forma alla percezione pubblica del rapporto tra etica, politica, diritto e tecnologia. Tra queste, ci sono il principio dell’inevitabilità della tecnologia e il principio di innovazione, ossia l’assunto che qualsiasi innovazione tecnologica sia foriera di competitività e occupazione e debba perciò essere assecondata. In realtà, i grandi monopoli ostacolano qualsiasi innovazione, per quanto dirompente e benefica, che non si adatti al loro modello di business: promuovono un’innovazione tossica che estrae o distrugge valore, anziché produrlo. I nostri diritti non sono in contrasto con il principio di innovazione. Il contrasto è tra i nostri diritti e i modelli di business fondati sulla sorveglianza.
AS:Leggendo l’AI Act e cosa bloccherà c’è da rabbrividire. Le intelligenze artificiali hanno già tutto questo controllo sulle nostre vite?
DT:Meredith Whittaker, la Presidente di Signal, ha detto che l’intelligenza artificiale è un derivato della sorveglianza. Ha ragione. Come ha scritto Cory Doctorow, oggi i miei diritti valgono solo se chi li viola non usa un’app.
AS:Esiste un problema di mantenimento della dignità e del proprio status di persona fisica che dovremo imparare a tutelare e ancor prima a riconoscere?
DT:I generatori di testo o di immagini consentono oggi truffe e manipolazioni su larghissima scala. D’altra parte, sistemi quali ChatGPT, che generano testi plausibili e convincenti, ma senza riferimento al vero o al falso, sono utili quasi solo per questo genere di attività. E, poiché questi effetti erano stati ampiamente previsti, i produttori dovrebbero esserne ritenuti responsabili. Daniel Dennet ha osservato che esistono pene severe per chi mette in circolazione denaro falso e che un’analoga severità servirebbe verso chi, mettendo ancor più rischio le fondamenta delle società democratiche, crei e metta in circolazione “persone contraffatte”. Quanto alla nostra dignità di persone, ossia al nostro status di soggetti giuridici, questo dovrebbe bastare a far dichiarare illegali tutti i sistemi di ottimizzazione predittiva, con i quali si finge di poter prevedere, da una foto, da un video o da un insieme di dati, se una singola persona sarà un bravo lavoratore oppure se commetterà o no un crimine. Non siamo cose, di cui si possa prevedere infallibilmente il futuro. Siamo persone. Io so che il litro di latte che ho nel frigo sarà andato a male, tra una settimana, ma non posso sapere se Lei commetterà un crimine, nei prossimi sette giorni. Come ricorda Maria Chiara Pievatolo, il fatto che gli studenti provenienti da specifici paesi stranieri abbiano avuto bisogno, in passato, di ripetere l’esame più volte, non ci autorizza a chiedere a uno studente da dove venga e a bocciarlo due o tre volte, se è straniero. Affidarsi a sistemi automatici, invece, dà luogo esattamente a questo genere di esiti.
stiamo già tutti sottosservazione
futuro buio se non la pensi come dispone la narrativa dominante