Un Tesla evita atropellar a un peatón y acaba chocando

Tesla evita atropellar a un peatón y acaba chocando
Tesla evita atropellar a un peatón y acaba chocando

El reciente incidente en Ámsterdam, en el que un Tesla Model Y evitó atropellar a un peatón que cayó súbitamente a la calzada y terminó colisionando con otro vehículo en sentido contrario, no solo ha sido una prueba de fuego para la tecnología de conducción autónoma. También ha reactivado una cuestión fundamental que la sociedad todavía no ha resuelto: ¿debemos delegar en las máquinas la toma de decisiones vitales?

El suceso ocurrió en cuestión de segundos. El coche, en modo Autopilot, detectó al peatón caído en su trayectoria y, al calcular que la frenada de emergencia no era suficiente, realizó una maniobra evasiva hacia el carril contrario. El resultado: una vida salvada y una colisión con otro vehículo. El conductor, que no intervino, explicó que “el coche actuó solo”.

¿Una máquina puede tomar una decisión ética?

El dilema es evidente: el Tesla eligió entre dos riesgos. ¿Salvar al peatón y chocar, o arriesgarse a arrollar a una persona para proteger la integridad del vehículo y sus ocupantes? La decisión fue automática. Rápida. Precisa. Pero… ¿fue justa?

A diferencia de un ser humano, que podría haber dudado, entrado en pánico o tomado una mala decisión, la inteligencia artificial no se deja llevar por emociones. Pero tampoco tiene principios morales. Lo que hace es seguir instrucciones, algoritmos diseñados por ingenieros que, en algún momento, decidieron cómo debía comportarse el sistema en una situación límite.

Y aquí radica el gran interrogante: ¿queremos que las máquinas decidan por nosotros en situaciones que ni siquiera nosotros sabemos cómo resolver?

El peligro de la ilusión de control

Muchos usuarios de Tesla —y de otras marcas con sistemas de asistencia avanzados— sienten una confianza casi ciega en la capacidad de su coche para “hacer lo correcto”. Sin embargo, esa confianza puede volverse peligrosa cuando se convierte en desconexión total por parte del conductor. Aunque la normativa europea exige mantener la atención y las manos cerca del volante, este incidente demuestra que, en la práctica, muchos ceden completamente el control.

La cuestión no es solo técnica, sino filosófica: ¿puede una inteligencia artificial priorizar correctamente la vida humana? ¿Tiene sentido programarla para que calcule probabilidades de daño o muerte, como si fuera una ecuación matemática?

Una regulación todavía inmadura

Las leyes actuales no contemplan con claridad la responsabilidad en estos casos. Si el sistema actúa solo, ¿la culpa es del fabricante? ¿Del conductor? ¿De los ingenieros que diseñaron el software?

Hasta ahora, la tecnología avanza más rápido que la legislación. Pero sucesos como este dejan claro que es urgente establecer marcos éticos y legales sólidos, donde se definan límites claros a lo que una máquina puede decidir y, sobre todo, quién responde por sus actos.

¿Estamos preparados para ceder el control?

Este caso no solo deja claro el potencial de los sistemas autónomos para salvar vidas. También nos enfrenta a una pregunta inquietante: ¿cuándo, y bajo qué condiciones, estamos dispuestos a dejar que una máquina decida quién vive y quién puede resultar dañado?

De momento, lo que está claro es que las máquinas ya no solo nos asisten: ya están tomando decisiones. Y quizá haya llegado el momento de preguntarnos si estamos listos —o no— para aceptar eso.