Después del accidente del año pasado, donde un conductor de Tesla perdió la vida, así como el reciente accidente de un auto con conducción autónoma de la firma Uber, la tecnología pareció “fallar” en ambos casos, sin embargo, analistas creen que los errores en dicha tecnología han sido humanos.
Datos de CNBC refieren que las áreas de manejo limitada, carreteras mal diseñadas o conductores de vehículos pueden ser motivos suficientes para que la conducción autónoma falle, ya que enseñar a esos sistemas automatizados esas “excepciones” en su trabajo, que es conducir, requerirá más datos y gran poder de cálculo que solo se lograría con años de avances tecnológicos.
Según analistas, los programadores de las principales compañías desarrolladoras de esta tecnología tienen que averiguar todavía el comportamiento humano y la idiosincracia del tráfico local, como la “parada de California” y la curva conocida como “izquierda de Pittsburgh”, ya que estos autos tendrán que enfrentarse a conductores imprudentes que violen la ley.
El análisis “Humans and Autonomy Lab, Duke University” señala que “pasará mucho tiempo” antes de que los vehículos de conducción autónoma y los autos manejados por humanos puedan coexistir.
Sin embargo, no todo es pesimismo, ya que el vicepresidente de soluciones de conducción autónoma para Intel, kathy Winter, cree que los autos de conducción autónoma podrán pensar “como humanos” para el 2030, cuando la inteligencia artificial esté más avanzada.
Intel espera que los autos de conducción autónoma recolecten, procesen y analicen cuatro terabites de datos en hora y media de conducción. Tal poder computacional superaría los 100 mil dólares por vehículo, costos que podrían reducirse si se construyen autos eléctricos de forma masiva.
Crédito de la imagen: Bigstock