Automobili a guida autonoma, spettacolo

Dalle immagini invece io penso che un guidatore umano "normale" avrebbe fatto molto meglio, ferma restando l'indicibile stupidaggine di attraversare in quel modo.

L'effetto di "muro di buio" è dato dalla telecamera. Occhi umani avrebbero visto prima.
Ed anche "spuntando" così dal nulla, forse qualcosa si poteva fare.

E' strano che il sistema autonomo non abbia visto.
Oppure ha visto ma non ha reagito.

In ogni caso duro colpo, perchè in proporzione ai km percorsi (rispetto alle auto normali), un solo incidente del genere è tantissimo.

Finalmente si comincerà a valutare le cose in modo più sensato, senza la ridicola Fede che c'è in queste cose.
 
l'auto viaggiava a 61 Km/h, 5 Km/h oltre il limite di velocità (tolleranza???)
Non ha neanche provato a frenare, forse il lidar non ha funzionato a dovere???
Il guidatore di backup sembra assopito ma dubito che qualsiasi guidatore,
anche in stato di massima allerta, sarebbe riuscito a evitare l'incidente :(


E' possibile che il Lidar o, più probabilmente, l'elaborazione e l'integrazione dei dati sensoriali, abbiano avuto qualche problema.

Il video credo derivi da telecamere nel visibile che, in notturna, non hanno grandi possibilità di detezione. Al contrario, il Lidar funziona in maniera analoga sia di notte che di giorno e avrebbe dovuto detettare 'qualcosa' ben prima di quanto appaia a video.

Come tutti i sensori, tuttavia, può guastarsi o semplicemente fornire detezioni/misure che, in fase di elaborazione/integrazione, non sono riconosciute come "pericolo, azione correttiva necessaria".

D'altronde i Lidar montati sulle auto Uber e Google (quelle di Elon Musk non lo usano proprio) devono essere di dimensioni ridotte e (relativamente) economici e non sono ancora così accurati come quelli usati sugli aerei per l'aerial mapping.
Aggiungiamo che, anche fossero accuratissimi (il che vorrebbe dire grandi moli di dati da elaborare), l'esigenza di ottenere dati elaborati in tempo reale 'stretto' richiederebbe comunque uno 'sfoltimento' dell'informazione.

Certamente l'accuratezza di questi sistemi e la potenza di calcolo associata per ottenere dati elaborati/integrati in real-time sono destinati a migliorare moltissimo (visti anche i capitali impegnati), ma è bene sapere che il sistema error free non esisterà mai.
 
Un guidatore con l'occhio sulla strada e non distratto avrebbe almeno fatto un abbozzo di frenata oppure sterzare, anche se forse non sarebbe servito, qui il sistema non ha proprio visto niente...

Persino gli aerei che hanno sistemi ridondanti e molto avanzati, in condizioni ben diverse da una strada con ostacoli, non volano senza la presenza di 2 piloti. Le auto per adesso non mi convincono, niet.

:no:
 
Si comincia a capire l'accaduto.

Non c'era nessun LIDAR.

Guida autonoma: il caso Uber, test "a risparmio" e clima da far west - Auto.it

Secondo voci insistenti, il team di tecnici Uber avrebbe semplicemente deciso di impegnare la vettura in un test senza Lidar, contando di far lavorare il software di gestione dei radar in modo più spinto, tanto da riuscire a fare a meno in un prossimo futuro di questo costoso strumento in favore di soluzioni ben più a buon mercato.

In pratica (leggete l'articolo) fanno come gli pare, in barba ad ogni principio di sicurezza e di buon senso, perchè la legislazione talebana ha dato loro impunità e carta bianca.

Questa della guida autonoma è ai primi posti tra le porcate del XXI secolo. :yes:
 
La mancanza del Lidar già spiega molte cose :yes: e il fatto che i produttori ne vogliano fare a meno (Elon Musk dichiara che la Tesla con l'Auto Pilot non ne ha bisogno :D) non sorprende visto che sarebbe il costo ricorrente più alto dell'intero veicolo e richiede comunque una grossa capacità di calcolo per l'integrazione dei dati.

Però l'articolo mostra parecchie inesattezze.
Il Velodyne normalmente montato sui veicoli Uber ha un costo che si aggira tra i 5 e i 10K$ (destinato a scendere, questo tipo di tecnologia per le auto ha in fondo solo qualche anno di 'anzianità').
L'affermazione che i radar abbiano interpretato un 'passante' come 'cartellone lato strada' è possibile, ma si tratterebbe di un malfunzionamento, non della normalità.

I radar a lungo o medio raggio (seppur di basso costo) permettono un funzionamento analogo a quello dei radar aeroportuali, vale a dire che detezioni acquisite su scansioni successive dello stesso angolo di vista sono integrate, correlate e classificate per generare una 'traccia' dei target (traiettoria, posizione, velocità, etc..) da inviare al SW decisionale per le azioni necessarie.

Rimanendo nel campo delle ipotesi, il fatto che neanche i radar abbiano 'visto' nulla può avere le seguenti cause:
- guasto/malfunzionamento, ipotizzo che un guasto-guasto sarebbe stato segnalato da un led o un cicalino, quindi più probabile un malfunzionamento non detettabile quale l'improvvisa elevazione della soglia di rumore (noise) dello strumento che ha impedito di rilevare la presenza di un target ;
- un bug del SW di integrazione dei dati su scansioni successive che non ha correlato due o più detezioni dello stesso target trattandole come oggetti 'fermi' in posizioni diverse su 'scene' successive (e questo spiegherebbe le mancate azioni del SW decisionale);
- un numero di scansioni al secondo dello stesso angolo di vista da parte del radar insufficienti a garantire l'integrazione dell'informazione in tempo reale o un tempo di elaborazione/integrazione delle scansioni troppo lungo per garantire una 'risposta' in tempi adeguati del SW decisionale (ma questo sarebbe un errore di progetto talmente grosso :eek: che lo definirei improbabile).

In ogni caso, la ridondanza degli dispositivi (per prevenire guasti/malfunzionamenti) e dell'informazione (integrazione dei dati sensoriali di più dispositivi con compiti simili) sono le minime condizione di sicurezza di qualsiasi sistema automatico.
 
Ultima modifica:
Il Velodyne normalmente montato sui veicoli Uber ha un costo che si aggira tra i 5 e i 10K$ (destinato a scendere, questo tipo di tecnologia per le auto ha in fondo solo qualche anno di 'anzianità').

Uhm, a quel che leggo il prezzo di cui parli potrebbe riguardare i Lidar "16", mentre i "64" citati nell'articolo sono molto più costosi, e dovrebbero avere un prezzo corrispondente a quanto riportato.

L'affermazione che i radar abbiano interpretato un 'passante' come 'cartellone lato strada' è possibile, ma si tratterebbe di un malfunzionamento, non della normalità.

I radar a lungo o medio raggio (seppur di basso costo) permettono un funzionamento analogo a quello dei radar aeroportuali, vale a dire che detezioni acquisite su scansioni successive dello stesso angolo di vista sono integrate, correlate e classificate per generare una 'traccia' dei target (traiettoria, posizione, velocità, etc..) da inviare al SW decisionale per le azioni necessarie.

Premesso che il malfunzionamento è sempre possibile, il punto secondo me è un altro, e cioè la "normale" possibilità di errore, senza malfunzionamenti.

Uso spesso un'auto con un sistema che mi risulta essere con tecnologia radar (ovviamente è un banale sistema di assistenza alla guida, niente di più).
Scambia eccome cartelli stradali per ostacoli per cui inchiodare.
Anche ciclisti che procedono nello stesso senso di marcia.

Il mondo è difficile da interpretare.
Non è questione di malfunzionamenti (peraltro sempre possibili, ci mancherebbe), o di bug, ma proprio di capacità.
 
Uhm, a quel che leggo il prezzo di cui parli potrebbe riguardare i Lidar "16", mentre i "64" citati nell'articolo sono molto più costosi, e dovrebbero avere un prezzo corrispondente a quanto riportato.[...]

Che io sappia, usano anche i Velodyne 16, anche se certezze non ne esprimo visto che, nel caso in oggetto........non ce n'erano proprio :yes:

kasparek ha scritto:
[...]Premesso che il malfunzionamento è sempre possibile, il punto secondo me è un altro, e cioè la "normale" possibilità di errore, senza malfunzionamenti.[...]

Nessun sistema, per definizione, può essere perfetto, le prestazioni devono essere progettate in base ai requisiti d'uso.
In un radar (e nel relativo SW di elaborazione/integrazione) la 'normale' (accettabile) possibilità di errore è tecnicamente definibile come la capacità di determinare un target con sezione d'urto radar Y con una probabilità non inferiore ad X.

Pur basandosi sullo stesso principio, un radar militare e un radar aeroportuale hanno prestazioni molto diverse su target con sezioni d'urto ridotte (a favore dei radar militari) ma, visto che la torre di controllo non ha a che fare con aerei stealth, ciò non rende di certo i radar aeroportuali meno sicuri per l'uso previsto.

In sintesi, da che mondo e mondo le tecnologie ed i sistemi si progettano e si affinano in base ai requisiti d'uso e quello che non è possibile oggi lo sarà domani (non mi esprimo, non avendo la sfera di cristallo, sul quanto questo domani possa essere più o meno vicino).

Quello che invece viene da pensare (basandosi sulle notizie che giungono da questi test) è che si sia scatenata una corsa a chi arriva prima (con quello che si ha, costi quel che costi), cosa che poco ha a che fare con le tecnologie e molto con strategie commerciali e di immagine.
 
Che io sappia, usano anche i Velodyne 16, anche se certezze non ne esprimo visto che, nel caso in oggetto........non ce n'erano proprio :yes:

C'è qualche fonte su questo?
Perchè io ho trovato info solo sui 64 per Uber.

Nessun sistema, per definizione, può essere perfetto, le prestazioni devono essere progettate in base ai requisiti d'uso.
In un radar (e nel relativo SW di elaborazione/integrazione) la 'normale' (accettabile) possibilità di errore è tecnicamente definibile come la capacità di determinare un target con sezione d'urto radar Y con una probabilità non inferiore ad X.

Pur basandosi sullo stesso principio, un radar militare e un radar aeroportuale hanno prestazioni molto diverse su target con sezioni d'urto ridotte (a favore dei radar militari) ma, visto che la torre di controllo non ha a che fare con aerei stealth, ciò non rende di certo i radar aeroportuali meno sicuri per l'uso previsto.

In sintesi, da che mondo e mondo le tecnologie ed i sistemi si progettano e si affinano in base ai requisiti d'uso e quello che non è possibile oggi lo sarà domani (non mi esprimo, non avendo la sfera di cristallo, sul quanto questo domani possa essere più o meno vicino).

Quello che invece viene da pensare (basandosi sulle notizie che giungono da questi test) è che si sia scatenata una corsa a chi arriva prima (con quello che si ha, costi quel che costi), cosa che poco ha a che fare con le tecnologie e molto con strategie commerciali e di immagine.

Cioè, appunto, i sistemi sbagliano per costruzione.

I "requisiti d'uso" sono, nel caso specifico della guida autonoma, altissimi, perchè si tratta nientemeno che intrepretare tutta la mutevole realtà che si può incontrare per strada.

Il problema è proprio questo: interpretare la realtà correttamente quanto un essere umano è difficilissimo.
Saperlo fare è difficilissimo.

Sono rispettati, questi requisiti ipotetici? Dubito fortemente.

Perchè ci sono i limiti della tecnologia, che sono un vincolo fondamentale.

Per i radar aeroportuali è solo questione di costi.
 
[...]Cioè, appunto, i sistemi sbagliano per costruzione.[...]
:no:, non per costruzione, bensì perchè ogni misura al mondo è affetta da errore, più o meno grande, nel caso di segnali e.m. si parla di noise.

kasparek ha scritto:
[...]I "requisiti d'uso" sono, nel caso specifico della guida autonoma, altissimi, perchè si tratta nientemeno che intrepretare tutta la mutevole realtà che si può incontrare per strada.[...]

'Altissimi', tecnicamente, non fornisce alcun requisito.
Per operare in sicurezza sui pedoni un sistema potrebbe, per es., avere una probabilità di detezione del 99% per la radar cross-section di un corpo umano. Un sistema che operasse con un radar ed un Lidar in associazione (i cui relativi dati sensoriali siano integrati) potrebbe permettersi due dispositivi con requisiti molto meno stringenti di quanto indicato raggiungendo comunque il requisito richiesto.
Se, invece, il sistema adottasse solo un radar (o solo un lidar) ciascun dispositivo, singolarmente, dovrebbe rispettare il requisito più stringente.

Ecco perchè, se quanto riportato è vero, e Uber ha 'spento' il Lidar per usare il solo radar ha probabilmente affidato la capacità di guida autonoma al dispositivo meno accurato e con probabilità di detezione inferiore al requisito 'ottimale' (ed ecco perchè Velodyne non è affatto contenta della cattiva pubblicità che, indirettamente, la coinvolge).

kasparek ha scritto:
[...]Per i radar aeroportuali è solo questione di costi.
E' sempre una questione di costi :yes:, commercialmente, non avrebbe senso spendere di più se il requisito è raggiunto.
 
:no:, non per costruzione, bensì perchè ogni misura al mondo è affetta da errore, più o meno grande, nel caso di segnali e.m. si parla di noise.

Appunto, per costruzione.
I sistemi costruiti sono fallibili, sbagliano per costruzione.

Così come un orologio da polso avrà il suo errore "strutturale".

'Altissimi', tecnicamente, non fornisce alcun requisito.

No, infatti è un aggettivo.
Il requisito è "interpretare la mutevole realtà ecc. ecc.".
Perdonami se sono generico nel definirlo, ma è qualcosa del genere.

Per operare in sicurezza sui pedoni un sistema potrebbe, per es., avere una probabilità di detezione del 99% per la radar cross-section di un corpo umano. Un sistema che operasse con un radar ed un Lidar in associazione (i cui relativi dati sensoriali siano integrati) potrebbe permettersi due dispositivi con requisiti molto meno stringenti di quanto indicato raggiungendo comunque il requisito richiesto.
Se, invece, il sistema adottasse solo un radar (o solo un lidar) ciascun dispositivo, singolarmente, dovrebbe rispettare il requisito più stringente.

Infatti si parla del sistema nel suo complesso, ovviamente.
Che non è solo sensori, peraltro.

Ecco perchè, se quanto riportato è vero, e Uber ha 'spento' il Lidar per usare il solo radar ha probabilmente affidato la capacità di guida autonoma al dispositivo meno accurato e con probabilità di detezione inferiore al requisito 'ottimale' (ed ecco perchè Velodyne non è affatto contenta della cattiva pubblicità che, indirettamente, la coinvolge).

Sì può essere, ma rimane il concetto di capacità del sistema nel suo complesso.
Che Uber pensava, in sostanza, fosse sufficiente anche senza lidar, grazie all'elaborazione dei dati degli altri sensori.

E' sempre una questione di costi :yes:

No niente affatto, ci sono i limiti della tecnologia, che costituiscono un vincolo.

Se voglio costruire una macchina del tempo, non è "questione di costi", come quando mi basta comprare il modello di radar più bello.

Qui si sta prendendo un granchio colossale pensando che i sistemi automatici sappiano capire ed interpretare la realtà come un cervello umano coi suoi sensori.
 
[...]Qui si sta prendendo un granchio colossale pensando che i sistemi automatici sappiano capire ed interpretare la realtà come un cervello umano coi suoi sensori.

Visto che partecipi al 3d da quando è nato, saprai che, ad oggi, ritengo la guida autonoma ancora lontana da uno standard soddisfacente se non su percorsi dedicati o con riduzione dei gradi di libertà decisionali. :yes:

Tuttavia quanto riportato in neretto vale solo ed esclusivamente nel visibile (e con buone condizioni di illuminazione, poca nebbia, poco fumo, etc...) perchè è vero che l'essere umano ha un computer potentissimo difficilmente emulabile, ma è (perfettamente) tarato solo su sensori nel visibile (occhi).

Anche se i sistemi automatici non sono in grado di raggiungere queste enormi capacità del cervello umano di interpretare la realtà nelle frequenze del visibile, sono però in grado di integrare l'informazione tramite una miriade di sensori che operano alle frequenze più varie (onde millimetriche, IR, laser, acustiche, etc..).

Se non fosse così, al posto dei radar aeroportuali avremmo ancora torri di avvistamento :yes:
 
Visto che partecipi al 3d da quando è nato, saprai che, ad oggi, ritengo la guida autonoma ancora lontana da uno standard soddisfacente se non su percorsi dedicati o con riduzione dei gradi di libertà decisionali. :yes:

Certo, non mi riferivo in particolare a te.

Tuttavia quanto riportato in neretto vale solo ed esclusivamente nel visibile (e con buone condizioni di illuminazione, poca nebbia, poco fumo, etc...) perchè è vero che l'essere umano ha un computer potentissimo difficilmente emulabile, ma è (perfettamente) tarato solo su sensori nel visibile (occhi).

Anche se i sistemi automatici non sono in grado di raggiungere queste enormi capacità del cervello umano di interpretare la realtà nelle frequenze del visibile, sono però in grado di integrare l'informazione tramite una miriade di sensori che operano alle frequenze più varie (onde millimetriche, IR, laser, acustiche, etc..).

Sì, è vero (o meglio: gli esseri umani non hanno solo la vista, ma anche l'udito), e questi sono concetti particolarmente rilevanti proprio per distinguere i sistemi di assistenza (che aggiungono) dalla guida autonoma (che da un lato aggiunge, e dall'altro toglie).

Comunque interpretare la realtà non significa solo "vederla".
Significa soprattutto vedere "qualcosa" e capire cosa sia, cosa potrebbe fare, ecc.

Tu non scambieresti mai un cartello stradale per un ostacolo, non inchioderesti per un ciclista, ecc.;)

Se non fosse così, al posto dei radar aeroportuali avremmo ancora torri di avvistamento :yes:

Infatti ci sono ancora anche le torri di controllo.
I radar integrano.

Negli aeroporti è comunque ridotta la presenza di oggetti "estranei".
 
E fatevi metter tutti un chip sottopelle che vi localizzi in tempo reale, così l'auto ha la vostra posizione...e frena se sa che siete lì davanti. O vi investe se state in **** a chi gestisce il sistema o vi si intromette
 
Nell'ipotesi che quello che si legge sia effettivamente fondato (visto che non ci hanno fatto sapere più nulla sulla presenza o meno del Lidar e sulle tipologie di sensori attivi :rolleyes:), qui un'indicazione sulle possibili cause dell'incidente: detezione correttamente avvenuta ma software decisionale che l'ha ignorata come 'falso positivo'.

Report: Software bug led to death in Uber’s self-driving crash | Ars Technica

Il problema si sposta quindi dal piano tecnologico (la detezione c'è stata) a quello decisionale (soglie di reazione elevate per scartare il maggior numero di detezioni inessenziali) che appare legato alle scelte operative fatte per rendere la guida autonoma più veloce e più fluida (e quindi appetibile al mercato).

"[...] Software designers face a basic tradeoff here. If the software is programmed to be too cautious, the ride will be slow and jerky, as the car constantly slows down for objects that pose no threat to the car or aren't there at all. Tuning the software in the opposite direction will produce a smooth ride most of the time—but at the risk that the software will occasionally ignore a real object.[...]"

P.S. nell'articolo non si fa cenno al fatto che, essendo la persona in movimento, non avrebbe comunque dovuto essere classificato come 'falso positivo' (e se fosse stato un daino o un elefante? :confused:)

P.P.S. il termine 'bug' dell'articolo non mi pare appropriato :yes:, più che un 'bug' (errore di detezione-riconoscimento) sembra più legato al tuning delle soglie di reazione per garantire una guida 'comoda' piuttosto che il massimo della sicurezza.:rolleyes:
 
Tesla, nuovo incidente, l'auto finisce nel lago

E' successo vicino a San Francisco, sembra che la vittima stesse guidando in modalità di guida semi-autonoma. La polizia apre un'indagine

083046629-c958b33c-b2ad-4e0e-8939-20577696cfec.jpg


Un nuovo incidente mortale scuote la comunità della guida semi autonoma: una Tesla è finita in un lago nei pressi di Castro Valley, a San Francisco. Secondo il Los Angeles Times, Keith Leung, 34 anni, è morto dopo che la sua auto si è schiantata contro una staccionata e poi è finita in un laghetto limitrofo.

La polizia ha aperto un'indagine perché ora si cerca di capire se l'uomo stesse utilizzando la modalità Autopilot, il sistema di guida semi-autonoma Tesla. E' presto per avere delle risposte, sia sa solo che il padre della vittima, intervistato dalla CBS, ha dichiarato che il figlio usava il sistema solo sulle autostrade. E che "quando iniziava ad andare sulle strade locali, lo spegneva sempre". Vedremo.

Di certo sulla questione "guida autonoma" (tema caldo dopo l'incidente di Uber, anche se poi l'auto è stata scagionata) in Usa si è scatenato un putiferio. Ma va detto che la Model S - così come le altre Tesla - non sono a guida autonoma: il famoso Autopilot è un sistema avanzato di assistenza alla guida (ADAS) che si classifica come "sistema automatizzato di livello 2" per la National Highway Transportation Safety Administration (NHTSA). Ed è progettato per un uso solo con un guidatore pienamente attento che ha le mani sul volante ed è pronto a subentrare in qualsiasi momento. Non è un caso che al momento dell'acquisto della vettura la Tesla stessa comunichi ufficialemente ai clienti che "L'autopilota non è un sistema a guida autonoma, non trasforma una Tesla in un veicolo autonomo e non consente al conducente di abdicare alle proprie responsabilità".

Certo, poi visto che il mondo è pieno di ******, basta andare su youtube per vedere come tanti automobilisti abusano del sistema, leggendo, fingendo di dormire o addirittura sedendosi lato passeggero mentre la macchina viaggia in autostrada.

Va detto comunque che - dal punto di vista statistico - i sinistri mortali con sistemi di guida autonoma sono inesistenti, ma la nuova tecnologia spaventa e gli scenari futuri sono incerti. Così ogni incidente diventa un caso. Da studiare attentamente. Anche se poi ha poco a che fare con la vera guida autonoma ma solo con i congegni di assistenza alla guida.
 
La Tesla non è un'auto a guida autonoma :no: e, per una volta, diamone atto, l'articolo riporta correttamente il fatto che sia un ADAS (anche se parlare di guida semi-autonoma non è del tutto corretto in quanto non ha la dotazione minima di sensori per la cosidetta "autonomia").

Infatti è richiesta (e ben specificata nelle istruzioni d'uso :yes:) la supervisione attiva del conducente anche se il nome AutoPilot sembra fatto apposta per far intendere altro. :rolleyes:
 
Anche se i sistemi automatici non sono in grado di raggiungere queste enormi capacità del cervello umano di interpretare la realtà

Comunque interpretare la realtà non significa solo "vederla".
Significa soprattutto vedere "qualcosa" e capire cosa sia, cosa potrebbe fare, ecc.

Tu non scambieresti mai un cartello stradale per un ostacolo, non inchioderesti per un ciclista, ecc.;)

Sicuramente i sistemi a guida autonoma non raggiungono le capacità del cervello umano, e forse mai le raggiungeranno.
Però già oggi correggono 3 "bug" che causano il 99% degli incidenti:
1) Distrazione (fonte dei due terzi degli incidenti: un computer non parla al telefono, non guarda vetrine e cartelloni pubblicitari, non ha problemi di lavoro o coniugali);
2) Libero arbitrio (un computer non decide di andare oltre il limite perchè è in ritardo dal dentista)
3) Collera (un computer non fa "il pelo" al ciclista perchè così la prossima volta impara a non stare in mezzo alla strada).

Secondo me non siamo lontani da sistemi di automatizzati che garantiscano più sicurezza rispetto alla guida umana, ma c'è un problema di accettazione sociale.
Diamo per scontato che l'essere umano sia fallibile ed accettiamo il fatto che una certa percentuale di incidenti d'auto sia inevitabile.
Da un sistema automatizzato pretendiamo incidenti zero.
 
Non so se sia solo clamore mediatico ma mi sembra che se ne sentano un po troppi rispetto al circolante...

Incidente mortale in Tesla in Svizzera: analisi sul posto | Il Disinformatico

A me sembra un classico esempio di clamore mediatico; un po' come qualche anno fa la popolazione italiana è stata decimata dai Pitbull.
Inoltre anche l'informazione, per forza di cose, non può mai essere neutra.

Ad esempio, se si volesse fare un articolo pro-guida autonoma, si potrebbe scrivere:
"Come riferisce un testimone, l'incidente è stato probabilmente causato dall'eccesso di velocità.
Non è ancora chiaro se il guidatore avesse anche imprudentemente disattivato l'autopilot o se la velocità fosse talmente elevata che neanche questo sistema è riuscito ad evitare la collisione con le barriere.
Probabilmente, in un futuro non lontano, un sistema totalmente automatizzato potrà impedire il verificarsi di tali incidenti".
 
Indietro