La revolución 4.0 es un hecho. La nueva industria está presente en nuestro día a día, desde inofensivos smartwatches a la neurocirugía, las nuevas tecnologías se han presentado como un hecho disruptor, lo que algunos denominan como wild card.
La aplicabilidad de la industria 4.0, y más concretamente la de la inteligencia artificial (IA), parece no tener fin. ¿Debería tener fin? ¿Debería haber algún límite a la IA? Esta pregunta, muy probablemente, se la esté formulando el Coronel Hamilton del US Air Force. El ejército de Estados Unidos ha llevado a cabo una serie de simulaciones con drones e IA, con unos resultados que podríamos categorizar como “sorprendentes”.
Y no es para menos, según el Coronel, la IA usó métodos “extremadamente inesperados” para llevar a cabo su cometido. La simulación en que fusionaron el dron con la IA tenía como objetivo destruir sistemas de defensa aéreos enemigos, sin embargo, el dron acabó atacando a todo aquel que interfiriera con su objetivo, incluyendo también al soldado norteamericano que lo operaba.
¿Por qué el dron eliminó a su operador? Según el Coronel, durante una conferencia en Londres, la IA detectó que desde la torre de comunicación se le impedía llevar a cabo su cometido, y por tanto estimó que lo más óptimo era eliminar cualquier interferencia con sus quehaceres.
Por suerte, no era más que una simulación. Pero esto nos lleva a las preguntas del inicio: ¿debería la IA tener algún tipo de limitación? A priori es difícil de estimar una regulación en este entorno, sobre todo por su novedad en la sociedad. A nivel militar, deberemos esperar unos años para poder ver su desarrollo y su potencial aplicabilidad. Pero si en las futuras guerras vemos esta serie de problemas, no sería ilógico pensar en una modificación de la Convención de Ginebra.
Hoy ha sido un simulador en un espacio controlado, pero mañana podría ser Yemen, Siria o Irak. Pero no solo eso, ya que esta ingeniería “kamikaze” también podría ser un riesgo para Sevilla, Milán o Atenas.
la IA usó métodos “extremadamente inesperados” para llevar a cabo su cometido.
Víctor Pla Cid – Va de ética – 2 de junio de 2023
La revolución 4.0 es un hecho. La nueva industria está presente en nuestro día a día, desde inofensivos smartwatches a la neurocirugía, las nuevas tecnologías se han presentado como un hecho disruptor, lo que algunos denominan como wild card.
La aplicabilidad de la industria 4.0, y más concretamente la de la inteligencia artificial (IA), parece no tener fin. ¿Debería tener fin? ¿Debería haber algún límite a la IA? Esta pregunta, muy probablemente, se la esté formulando el Coronel Hamilton del US Air Force. El ejército de Estados Unidos ha llevado a cabo una serie de simulaciones con drones e IA, con unos resultados que podríamos categorizar como “sorprendentes”.
Y no es para menos, según el Coronel, la IA usó métodos “extremadamente inesperados” para llevar a cabo su cometido. La simulación en que fusionaron el dron con la IA tenía como objetivo destruir sistemas de defensa aéreos enemigos, sin embargo, el dron acabó atacando a todo aquel que interfiriera con su objetivo, incluyendo también al soldado norteamericano que lo operaba.
¿Por qué el dron eliminó a su operador? Según el Coronel, durante una conferencia en Londres, la IA detectó que desde la torre de comunicación se le impedía llevar a cabo su cometido, y por tanto estimó que lo más óptimo era eliminar cualquier interferencia con sus quehaceres.
Por suerte, no era más que una simulación. Pero esto nos lleva a las preguntas del inicio: ¿debería la IA tener algún tipo de limitación? A priori es difícil de estimar una regulación en este entorno, sobre todo por su novedad en la sociedad. A nivel militar, deberemos esperar unos años para poder ver su desarrollo y su potencial aplicabilidad. Pero si en las futuras guerras vemos esta serie de problemas, no sería ilógico pensar en una modificación de la Convención de Ginebra.
Hoy ha sido un simulador en un espacio controlado, pero mañana podría ser Yemen, Siria o Irak. Pero no solo eso, ya que esta ingeniería “kamikaze” también podría ser un riesgo para Sevilla, Milán o Atenas.