¿Cómo te sentirías si uno de tus seres queridos fuera asesinado por un robot, y el fabricante del robot descartara el hecho como una “inevitabilidad estadística”?
Ésas fueron las palabras que publicó Tesla hace dos años cuando uno de sus clientes alcanzó una dudosa distinción, al convertirse en la primera persona en morir al volante de un automóvil que operaba con un alto grado de autonomía.
Las muertes provocadas por robots, como admitió Tesla, seguramente se volverán más comunes a medida que las máquinas autónomas se hagan cargo de muchas de las actividades que anteriormente requerían un operador humano.
En el último presagio, un peatón en Tempe, Arizona, fue atropellado en la noche del domingo por un vehículo autónomo operado por Uber y murió como consecuencia de las lesiones (había un humano al volante quién se suponía que intervendría si algo andaba mal).
Uber ha respondido rápidamente; suspendió todas las pruebas de coches sin conductor y emitió declaraciones de condolencias. Pero el accidente fatal en Arizona plantea algunas preguntas difíciles para los gerentes y reguladores, cuyo trabajo será decidir cómo y cuándo se permitirá la entrada de los sistemas autónomos de todo tipo en nuestras vidas.
Un problema fundamental es si las máquinas alguna vez podrán certificarse como totalmente confiables. El aprendizaje automático — una técnica que respalda muchos avances recientes en la Inteligencia Artificial — implica el aprendizaje a partir del análisis de grandes cantidades de datos: siempre será difícil predecir exactamente qué “lecciones” ha digerido la máquina hasta que ponga en práctica su aprendizaje.
Aún no se logra un consenso sobre la mejor forma de evaluar las capacidades de una máquina inteligente, dice David Danks, jefe del departamento de filosofía de la Universidad Carnegie Mellon, que se encuentra entre los líderes de la robótica estadounidense. La transparencia, la explicabilidad y la repetibilidad son sólo algunos de los criterios que podrían utilizarse para juzgar los sistemas de inteligencia artificial.
Una segunda cuestión se refiere a la ética: ¿es correcto dejar que los robots se mezclen con las personas cuando todavía están en entrenamiento, incluso aunque tengan operadores humanos listos para intervenir cuando las cosas amenacen con salir mal? La mayoría de los productos de nueva tecnología — como los nuevos medicamentos — sólo se lanzan una vez que se han probado exhaustivamente para garantizar su seguridad y efectividad.
Fue insensible y éticamente dudoso que Tesla sugiriera que no era tan malo que un conductor perdiera la vida después de que su tecnología autónoma hubiera recorrido 130 millones de millas en las calles, dado que el promedio estadounidense es de una muerte cada 94 millones.
Pero aún pone de manifiesto una situación real para los reguladores: si se debe restringir una tecnología con enormes beneficios potenciales, y la cual, por definición, necesita la oportunidad de aprender en el mundo real si quiere alcanzar su potencial. Estamos aún en una etapa muy temprana de la interacción de la humanidad con los robots. Se necesita un debate serio, antes de que más muertes provoquen el inevitable rechazo del público.
@diariolibre
