¿Qué pasa si los coches autónomos no pueden ver señales de Stop?

Por

Capitalbolsa | 02 feb, 2018

Actualizado : 10:25

A pesar de su impresionante progreso en el dominio de las tareas humanas, la inteligencia artificial tiene un secreto embarazoso: es sorprendentemente fácil de engañar. Esto podría ser un gran problema, ya que cada asume una mayor responsabilidad por las vidas y los medios de subsistencia de las personas.

Gracias a los avances en las redes neuronales y al "aprendizaje profundo", los algoritmos informáticos ahora pueden vencer a los mejores jugadores humanos en juegos como Go, o reconocer animales y objetos a partir de fotos. En el futuro previsible, es probable que asuman todo tipo de tareas mundanas, desde llevar a las personas al trabajo hasta administrar las inversiones. Al ser menos propensos que los humanos a cometer errores, también podrían manejar tareas delicadas como el control del tráfico aéreo o escanear el equipaje en busca de explosivos.

Pero en los últimos años, los científicos informáticos han tropezado con algunas vulnerabilidades preocupantes. Los cambios sutiles en una imagen, tan insignificantes que ningún ser humano lo notaría, pueden hacer que un algoritmo vea algo que no está allí. Puede percibir ametralladoras colocadas sobre una mesa como un helicóptero, o un gato atigrado como guacamole. Inicialmente, los investigadores necesitaban estar íntimamente familiarizados con un algoritmo para construir tales "ejemplos adversos". Últimamente, sin embargo, han descubierto cómo hacerlo sin ningún conocimiento interno.

No es difícil imaginar cómo estos trucos podrían usarse para fines nefastos. Cámaras de vigilancia podrían ser engañadas para identificar a la persona equivocada - de hecho, a cualquier persona deseada - como un criminal. Cambios indistinguibles en una señal de "Stop" podrían hacer que las computadoras en un automóvil sin conductor lo lean como "Límite de velocidad 80".

Hasta que se encuentre una solución, la gente tendrá que ser muy cautelosa al transferir poder y responsabilidades a las máquinas inteligentes. Los autos que conducen por sí solos pueden necesitar restricciones aplicadas por otros sensores que podrían, por ejemplo, evitar que se topen con un objeto, independientemente de lo que la cámara integrada vea.

La buena noticia es que los científicos han identificado el riesgo a tiempo, antes de que los humanos comiencen a confiar demasiado en la inteligencia artificial. Si los ingenieros prestan atención, al menos podremos evitar que la tecnología haga cosas completamente locas.

Últimas noticias