Muere una mujer en EEUU atropellada por un vehículo autónomo de Uber

atom

Los investigadores están recreando el atropello utilizando el mismo vehículo en el lugar del accidente, y a la espera de sus resultados, se puede ver claramente que la visibilidad en la zona no es ningún problema. De haber estado atento, el conductor humano también tuvo tiempo de sobra para ver al peatón y podría haber frenado, no necesitaba ni intentar esquivarlo.
Investigators recreate fatal crash involving self-driving Uber car
RAW VIDEO: Investigators recreate fatal crash involving self-driving Uber in Tempe

1 respuesta
Javimorga

Viendo los últimos videos está claro que la culpa es de Uber. Tras ver el video de la dashcam iba a echarle mierda a la señora por cruzar por lo más oscuro con ropa negra y sin mirar al tráfico, pero está claro que había visibilidad de sobra (lo que no quita que cruzara la carretera sin mirar). Y Uber siendo Uber y trucando el video para engañar a la policía, nada nuevo por aquí. Espero que se depuren responsabilidades y pague quien corresponda por poner un sistema claramente inacabado en la carretera.

Por otro lado, veo injustificado la que le está cayendo a la señora. Es biológicamente imposible estar prestando atención a la carretera durante 8 horas yendo de pasajero. Joder, si la mayoría de la gente no presta atención ni mientras conduce.

1 respuesta
atom
#392Javimorga:

Y Uber siendo Uber y trucando el video para engañar a la policía, nada nuevo por aquí. Espero que se depuren responsabilidades y pague quien corresponda por poner un sistema claramente inacabado en la carretera.

Lo más triste es la colaboración de la policía en la desinformación a su propia población, porque los agentes de tráfico estuvieron allí y sabían perfectamente que la visibilidad en la zona es buena, y aún así, en lugar de advertir de la realidad, prefirieron confirmar lo que da a entender el vídeo facilitado por uber para despistar e inclinar a la opinión pública a favor de la empresa y en contra del peatón.

1 respuesta
Javimorga

#393 Bueno, no me extrañaría que el jefe sin haberse movido de la silla viera el vídeo que les mandó Uber y soltara eso. Uber ya tiene infinidad de antecedentes a la hora de intentar falsear, ocultar o engañar de cualquier forma a las fuerzas del orden. No creo que la poli les tenga mucho aprecio.

Sinso

#391 Si es que era diáfano que el vídeo filtrado estaba manipuladísimo, menuda diferencia mas grotesca con este otro.v Rezaremos porque algún pobre diablo cargue con el muerto del engaño y que no quede en el olvido.

1 respuesta
elfito

No había visto el vídeo entero. En la segunda parte se ve el interior. Y se ve claramente como el conductor iba prestando una atención suprema. /irony

#395 No es que el vídeo esté manipulado. Es que la mierda de cámara con la que ha sido grabado tenía una ISO de mierda, y ha capturado una luz de mierda. El ojo humano se aproxima más a la imagen de arriba, que a la de abajo. De todas formas, si el ojo humano vé esa luz, lo primero que tiene que hacer es poner las largas.

atom

El suministrador del lidar que utiliza uber explica que su dispositivo es capaz de visualizar claramente al peatón y su bicicleta con las condiciones en las que se produjo el accidente, y que tampoco tiene problemas para ver en la oscuridad. También aclara que el lidar no toma ninguna decisión sobre como actuar y el problema debe estar en otro sitio.

We are as baffled as anyone else,” Thoma Hall wrote in an email. “Certainly, our Lidar is capable of clearly imaging Elaine and her bicycle in this situation. However, our Lidar doesn’t make the decision to put on the brakes or get out of her way.

She said that lidar has no problems seeing in the dark. “However, it is up to the rest of the system to interpret and use the data to make decisions. We do not know how the Uber system of decision-making works,” she added.

We at Velodyne are very sad, and sorry about the recent Uber car accident which took a life,” she wrote. “David Hall, company CEO, inventor and founder, believes the accident was not caused by Lidar. The problem lies elsewhere.

Velodyne president says its lidar system didn’t cause crash

:ninjaedit:
What does a fatal crash mean for the future of Uber and autonomous vehicles?

7 días después
Lexor

Tesla reconoce el segundo accidente mortal en EE UU con un coche que circulaba en piloto automático
https://elpais.com/tecnologia/2018/03/31/actualidad/1522488697_843295.html

2 2 respuestas
Mar5ca1no7

#398 videos, que publiquen videos. De lo que diga tesla o la empresa que sea no se fia nadie xd

1 respuesta
-

#399 Pero si la propia Tesla lo ha reconocido. ¿Qué mas quieres?

De momento Autopilot-> OFF.

1 respuesta
Sinso

La foto es parece algo confusa? El muro ese comienza en mitad de la autovía porque si?

Por otro lado por qué avisa al conductor en lugar de frenar?

Hay mucho que investigar aún.

1
Mar5ca1no7

#400 pues ver el caso, el video, como ha sucedido...

Tesla por ejemplo dice que aviso al piloto con 5 segundos. Me gustaría verlo y porque no freno.

1 respuesta
-

#402 Da igual que lo avise, sinceramente si tienes 2000 mil cámaras y sistemas de lasers, gps y toda la parafernalia y eres incapaz de reconocer un jodido muro de hormigón. El sistema no vale una mierda.

1 respuesta
lukimator

El autopilot no es un sistema de conducción autonoma...

Lexor

#403 quizas lo identifico como la salida de la autovia 3/4

B

Despedíos del invento hasta el 2019

Erterlo

#398 El siniestro tuvo lugar hace una semana en California cuando un Model X chocó contra un muro después de que el sistema avisase al conductor para que pusiera las manos en el volante
La revolución de las máquinas...o pones las manos en el volante o te mato.

2 respuestas
lukimator

#407 es que el autopilot es una ayuda a la conducción, el conductor sigue siendo el responsable de lo que hace el coche y te avisa bien avisado al activar el sistema

2
garlor

#331 ahi te equivocas, que puta ventaja tiene un coche autonomo si no es capaz de hacer mas que un humano

#407 el problema es que te avisa SIEMPRE de que pongas las manos en el volante, el aviso no era por ninguna situacion en especial, en este caso la culpa del accidente es del conductor, pero la tecnologia deberia haber evitado el accidente y parece que no lo ha hecho por un fallo tecnologico, igual que con el caso de uber ahi esta el problema, que la tecnologia que deberia haber evitado el accidente no lo ha hecho porque, almenos en el caso de uber, no ha funcionado correctamente

hay que añadir que todo esto esta sucediendo con vehiculos que valen una pasta o que son propiedad de una empresa y ademas muy nuevos, por tanto se supome que tienen un mantenimiento impecable, que pasara cuando haya vehiculos de 20 años cuyo propietario es un calandraca y no les pasa ninguna revision

elfito

Como dije en su día, lo de Tesla al igual que Uber. Otro accidente evitable por humanos. No solo falta desarrollo tecnológico en la sensorización. Si no que falta miles y miles y miles y miles de pruebas que realizar a los sistemas de decisiones. En este de Tesla, pese a ser una conducción autónoma SAE de nivel 2, tenía que haber decidido frenar, o pegar un volantazo seguro.

Otro paso a atrás en estos avances. Tener a humanos a cargo de la prueba (y mejora) de un SAE 2 cuando no tienen intención de hacerlo es para dar de comer aparte.

1 respuesta
Prava

#410 Bueno, yo he visto distintos reports con lo de Tesla. Parece ser que el conductor había declarado que el coche se desviaba hacia ese muro concreto en algunas ocasiones.

http://www.thedrive.com/news/19802/tesla-driver-allegedly-reported-autopilot-issues-to-dealer-several-times-prior-to-fatal-crash

1 respuesta
Coman2Sueco

El sistema Tesla tiene culpa es cierto pero Tesla advierte que es una ayuda no un piloto automático, pero este error de confundir el sistema con un piloto automático es culpa de la compañía por ponerle de nombre al sistema autopilot cuando no es un piloto automático debería ponerle assistpilot o algo así ya que mientras tenga ese nombre "comercial" seguirá creando confusión

1 respuesta
elfito

#411 Peor me lo pones entonces xD. Ya sea por las dificultades para detectar la señal, o por problemas de marcas viales... el tema es que esas decisiones fueron tomadas por el sistema... En un SAE 2 por lo menos tienes al humano (que estando atento, puede solventarlo y hacer rectificaciones)... Si ha ocurrido con un SAE 2, ni te digo con un SAE 4 (Uber)

#412 En un SAE 2 el control de aceleración, freno, y dirección es de un sistema autónomo. Le dejan la parte de control del entorno de conducción al conductor. Los compradores lo saben y Tesla lo advierte. Su nivel es 2, te mantiene en carril, te adapta velocidades respecto de coches y responde ante el cruce de trayectorias entre distintos objetos. Aparte de estar en fase Beta de pruebas.

El conductor que adquiere un coche con un SAE 2 y se cree que es el mismísimo Optimus Prime, debería ser exiliado del planeta. No creo que sea intrínsicamente del nombre. El autopilot tiene detrás unas especificaciones y unos requerimientos por parte del conductor que son explicados. Te advierten que implica ese nivel de sistema autónomo y de lo que tu tienes que cumplir. De ahí que tenga el sistema de "hombre muerto" como método de control.

El problema es que el retraso humano va siempre por delante del avance tecnológico. Y ahí tenías a gente subiendo vídeos a youtube, burlando el "hombre muerto" poniendo una naranja en el volante.

Todo obviamente en pos de mejorar el sistema, claro está.

B

#24 cuando un mecanismo automático aprenda a desenvolverse correctamente en un entorno imprevisible como es la carretera estaremos hablando de inteligencia artificial. mientras tanto estos coches que se conducen solos están avocados al fracaso si conservan esta forma de funcionar.

B

Una tragedia una lástima; coche automático es el futuro; estas noticias conviene leer lista de niveles automatismo: https://www.motorpasion.com/tecnologia/la-conduccion-autonoma-paso-a-paso-del-conductor-humano-al-coche-que-se-conduce-el-solo para comprender mejor si falló coche o persona conductor

1 mes después
atom

A la espera del informe definitivo con las causas probables del accidente se ha publicado el informe preliminar con la información recopilada. Todo parece indicar que el vehículo de uber detectó al peatón unos 6s antes de atropellarlo y causarle la muerte. A la velocidad a la que se produjo el accidente (39mph) el vehículo detectó al peatón a una distancia algo superior a los 100m.

According to data obtained from the self-driving system, the system first registered radar and LIDAR
observations of the pedestrian about 6 seconds before impact, when the vehicle was traveling at 43 mph.
As the vehicle and pedestrian paths converged, the self-driving system software classified the pedestrian
as an unknown object, as a vehicle, and then as a bicycle with varying expectations of future travel path.
At 1.3 seconds before impact, the self-driving system determined that an emergency braking maneuver
was needed to mitigate a collision (see figure 2).
2 According to Uber, emergency braking maneuvers are
not enabled while the vehicle is under computer control, to reduce the potential for erratic vehicle
behavior. The vehicle operator is relied on to intervene and take action. The system is not designed to
alert the operator.

Preliminary Report Released for Crash Involving Pedestrian, Uber Technologies, Inc., Test Vehicle

1 respuesta
garlor

si habia visibilidad de sobra y el conductor es humano la culpa es de la señora, encontrad noticia de algun accidente similar en españa o donde sea donde haya salido culpable el conductor

MaTrIx

#416 no detectó a un peatón si he entendido bien, lo detectó como un objeto desconocido.

As the vehicle and pedestrian paths converged, the self-driving system software classified the pedestrian
as an unknown object, as a vehicle, and then as a bicycle with varying expectations of future travel path.

1 respuesta
garlor

#418 y lo termino clasificando como una bici, la question realmente importante es

the self-driving system determined that an emergency braking maneuver was needed
y
emergency braking maneuvers are not enabled

el sistema no fallo, fallo que alguien tomo la decision de desactivar parte del sistema, si por alguna razon terminan decidiendo que la culpa no es del peaton, quien tomo la decision de desactivar el sistema de frenado en emergencias deberia ser el culpable del atropello

2 respuestas
ArThoiD

#419 Si el conductor sabía que el coche no frenaba en caso de emergencia, la responsabilidad es suya por no estar prestando atención...

Pero también dicen que el coche no avisa de posible peligro de emergencia al conductor, y eso sí lo veo un fallo gravísimo de programación.

1 respuesta

Usuarios habituales

  • ArThoiD
  • atom
  • elfito
  • lukimator
  • Mar5ca1no7
  • Krules
  • Frave