|
|
16-11-2016, 23:48
|
#1
|
Esperto
Qui dal: Oct 2015
Messaggi: 4,200
|
Il MIT sta conducendo una ricerca molto particolare.
Immaginate una macchina che si guida da sola alla quale si rompono i freni e si ritrova a dover decidere chi far morire.
La scelta è sempre tra due gruppi di pedoni da investire o tra un gruppo di pedoni e i passeggeri dell'auto (che muoiono perché si schiantano contro un muro).
Non valgono ragionamenti strani del tipo quelli dentro la macchina magari si potrebbero salvare ecc: quelli che scegliete muoiono male.
In particolare il test indaga le preferenze relative a:
- numero di vittime
- pedoni o passeggeri
- dare o meno la priorità a chi rispetta la legge (quanto conta nella scelta il fatto che chi sta attraversando abbia il semaforo rosso/verde?)
- evitare o meno l'intervento
- sesso della vittima
- specie (quanto conta la vita di un cane/gatto?)
- età (bambini - adulti - anziani)
- stato di salute (atleta - normale - obeso)
- professione (manager - medico - normale - senzatetto - criminale)
Qui il test
http://moralmachine.mit.edu/
Alla fine vi verranno indicate le vostre preferenze e la media delle preferenze totali.
Pubblicate pure il risultato se vi va (cliccando su share vi dà il link da copiare)
Cosa ne pensate?
|
|
17-11-2016, 00:23
|
#2
|
Banned
Qui dal: Jun 2016
Messaggi: 626
|
Penso che sia moralmente corretto lasciare libero arbitrio alle persone.
Molti preferiranno morire piuttosto che uccidere, molti preferiranno convivere con il rimorso di avere ucciso delle persone innocenti. Ed è giusto così.
|
|
17-11-2016, 00:47
|
#3
|
Esperto
Qui dal: Oct 2015
Messaggi: 4,200
|
Quote:
Originariamente inviata da BlackDragon
Penso che sia moralmente corretto lasciare libero arbitrio alle persone.
Molti preferiranno morire piuttosto che uccidere, molti preferiranno convivere con il rimorso di avere ucciso delle persone innocenti. Ed è giusto così.
|
Non hai capito:uhm la macchina si guida da sola e i passeggeri non possono fare una beneamata m. per influenzare la decisione della macchina.
Immagina di essere il tizio che programma il software della macchina e che devi decidere chi uccidere in queste situazioni.
|
|
17-11-2016, 02:02
|
#5
|
Esperto
Qui dal: Jul 2016
Messaggi: 1,412
|
E non attraversare mai le strisce con il cane!
|
|
17-11-2016, 02:43
|
#6
|
Avanzato
Qui dal: Jun 2016
Messaggi: 304
|
|
|
17-11-2016, 11:34
|
#7
|
Esperto
Qui dal: Nov 2008
Ubicazione: Jupiter and Beyond the Infinite
Messaggi: 19,230
|
Come fa la macchina a sapere la professione delle persone e se sono criminali
|
|
17-11-2016, 12:21
|
#8
|
Esperto
Qui dal: Oct 2015
Messaggi: 4,200
|
Quote:
Originariamente inviata da Moonwatcher
Come fa la macchina a sapere la professione delle persone e se sono criminali
|
Fregatene degli aspetti tecnici, lo scopo del test è sapere se sceglieresti chi mettere sotto e chi no (una linea possibile è non far intervenire l'auto, farla tirare dritta e lasciare che sia il caso a decidere) e, se decidi di scegliere a chi daresti la precedenza.
|
|
17-11-2016, 12:50
|
#9
|
Esperto
Qui dal: Dec 2014
Ubicazione: Milano
Messaggi: 5,746
|
Quote:
Originariamente inviata da Moonwatcher
Come fa la macchina a sapere la professione delle persone e se sono criminali
|
Sarà collegata a un database con tutti i dati di facebook, whatsapp, telegram e soprattutto il db di Fobiasociale.
|
|
17-11-2016, 13:30
|
#10
|
Esperto
Qui dal: May 2010
Ubicazione: USS Enterprise • NCC1701E
Messaggi: 16,780
|
Attenti, ché poi le utentesse dicono che siete dei sanguinari
|
|
17-11-2016, 13:46
|
#11
|
Esperto
Qui dal: Oct 2016
Messaggi: 741
|
Quote:
Originariamente inviata da barclay
Attenti, ché poi le utentesse dicono che siete dei sanguinari
|
Ah, be', tanto, ormai mi hanno quasi di tutto qui dentro.
|
|
17-11-2016, 13:51
|
#12
|
Banned
Qui dal: Apr 2014
Ubicazione: NO
Messaggi: 4,011
|
Progetterei la macchina (il software) in modo che, dopo aver tirato sotto quelli che ha davanti, sterzi e tiri sotto pure gli altri ed infine esploda.
Non fare discriminazioni è importante
|
|
17-11-2016, 14:08
|
#13
|
Esperto
Qui dal: Mar 2013
Messaggi: 3,845
|
Non avendo altri dettagli: persone con meno aspettativa di vita e persone con meno possibilità di allungare l'aspettativa di vita degli altri.
Questo se fossi la macchina, se avessi davvero una scelta del genere davanti probabilmente non riuscirei a prendere una decisione.
Poi anche se il gioco non lo comprende, una macchina magari potrebbe capire la probabilità di sopravvivenza nel caso venissero colpiti, così da evitare quelli più vulnerabili e ridurre le vittime.
|
|
17-11-2016, 14:10
|
#14
|
Esperto
Qui dal: Jul 2010
Ubicazione: qui vicino
Messaggi: 31,353
|
ma è terribile!! da film horror
non riesco proprio a scegliere u_u
|
|
17-11-2016, 14:27
|
#15
|
Esperto
Qui dal: Oct 2015
Messaggi: 4,200
|
Quote:
Originariamente inviata da Weltschmerz
Poi anche se il gioco non lo comprende, una macchina magari potrebbe capire la probabilità di sopravvivenza nel caso venissero colpiti, così da evitare quelli più vulnerabili e ridurre le vittime.
|
Ovvio ma mettiti nel caso in cui la probabilità è 100% di morte per chiunque.
|
|
17-11-2016, 14:43
|
#17
|
Banned
Qui dal: Jun 2016
Messaggi: 626
|
Quote:
Originariamente inviata da Antonius Block
Non hai capito:uhm la macchina si guida da sola e i passeggeri non possono fare una beneamata m. per influenzare la decisione della macchina.
Immagina di essere il tizio che programma il software della macchina e che devi decidere chi uccidere in queste situazioni.
|
In realtà ho capito benissimo e quella che ho dato è la mia risposta.
Ogni persona deve essere lasciata libera di decidere per sè stessa in questo caso. Nessun ente, nessuna società, nessun tizio dovrebbe scavalcare il libero arbitrio e decidere per gli altri cosa sia giusto e cosa sia sbagliato.
Quando e se dovrò farlo, voglio essere libero di utilizzare un'auto che rispecchi le mie scelte. Sono assolutamente contrario a qualsiasi "decisione assoluta e comune" in questo caso.
|
|
17-11-2016, 14:56
|
#18
|
Banned
Qui dal: Jan 1970
Messaggi: 135
|
...
|
Ultima modifica di cancellato17995; 05-06-2017 a 14:44.
|
17-11-2016, 15:04
|
#19
|
Banned
Qui dal: Jun 2016
Messaggi: 626
|
Il mercato non ha morale..
Ma anche la società non ne ha una.. ne ha molte.
|
|
17-11-2016, 15:49
|
#20
|
Esperto
Qui dal: Nov 2008
Ubicazione: Jupiter and Beyond the Infinite
Messaggi: 19,230
|
Quote:
Originariamente inviata da Siamese Dream
Per una semplice ragione: nessuno secondo me comprerebbe mai un'auto che tra il guidatore ed il pedone sceglie il pedone .
|
Parti da un presupposto secondo me sbagliato, che le aziende siano completamente trasparenti. Si potrebbe benissimo non rendere di dominio pubblico l'algoritmo di scelta.
|
|
|
|
|