Tecnología y libertades
Las amenazas de la inteligencia artificial ya están aquí: privacidad y armas autónomas

Las diversas aplicaciones positivas de esta tecnología contrastan con su investigación para fines militares.

15/03/16 · 13:51
Un drone MQ-9 Reaper de la fuerza aérea estadounidense.

La investigación en inteligencia artificial (IA) se encuentra hoy en día en un punto álgido dado su empleo en variadas disciplinas más allá de la robótica. Se utilizan estas técnicas en campos como la sociología, la economía o la bioingeniería para predecir situaciones con mayor precisión de la que un ser humano pueda determinar. No obstante, también existen amenazas, ligadas sobre todo a los usos militares de esta tecnología.

Existen dos tipos de inteligencia artificial, la débil y la fuerte. La primera es la disciplina que permite diseñar y programar ordenadores que lleven a cabo tareas que requieran inteligencia. La segunda es, a día de hoy, un objetivo que algunos investigadores consideran una quimera, pues se trataría de la ciencia que podría replicar una inteligencia similar a la humana mediante máquinas.

"La IA puede concluir que usted es judío, el problema surge si el que la usa es Hitler"
Todas las manifestaciones que se han dado hasta el momento de inteligencia artificial han sido del tipo débil. Ésta puede llevar a cabo tareas específicas incluso mejor que los humanos. No obstante, no puede aplicar esos conocimientos en otro campo. Es decir, carece de la intuición y del sentido común propio de los humanos. Por ejemplo, un ordenador capaz de jugar al ajedrez al nivel de Gran Maestro es incapaz de aplicar esos conocimientos para jugar a las damas.

“La inteligencia artificial débil es la que resuelve un problema concreto, por ejemplo conducir un coche. Sirve para eso y sólo para eso, pero no tiene comprensión de cómo lo hace ni por qué, es decir, no es consciente de sí misma. La inteligencia fuerte trataría de construir una IA general, algo como lo que tenemos los humanos, que tanto vale para montar en bicicleta como para resolver ecuaciones o componer música”, explica Francisco Serradilla, profesor investigador del departamento de inteligencia artificial de la Universidad Politécnica de Madrid.

El presente y el futuro en el campo de la inteligencia artificial reside en “explotar la posibilidad de acceder a cantidades masivas de datos y poder procesarlos con hardware cada vez más rápido con el fin de descubrir relaciones entre ellos, detectar patrones y realizar inferencias y aprendizaje mediante modelos probabilísticos”, tal y como sostiene Ramón López de Mántaras, director del Instituto de Investigación en Inteligencia Artificial del Centro Superior de Investigaciones Científicas (CSIC).

Amenazas de la inteligencia artificial

El lado oscuro de la investigación en inteligencia artificial reside en el fin de la privacidad tal y como la conocemos hoy en día y sus aplicaciones militares. Para Serradilla, el problema de la privacidad no reside tanto en la IA en sí misma, sino en cómo sea utilizada.

El lado oscuro de la investigación en IA reside en el fin de la privacidad tal y como la conocemos hoy en día y sus aplicaciones militares

López de Mántaras es categórico ante la idea de la singularidad, esto es, que se lleguen a desarrollar inteligencias artificiales del tipo fuerte que puedan desbancar a los humano: “Es un broma pesada. No creo que llegue nunca. Creo que la singularidad es un meme que se ha esparcido interesadamente para que se hable de ello en hablar de las cosas que actualmente ya son realmente un problema y una amenaza”.

“El peligro son las empresas, o peor, los gobiernos, que tomen decisiones en función de los parámetros que una inteligencia artificial pueda concluir. La IA puede concluir que usted es judío, el problema surge si el que la usa es Hitler”, asegura Serradilla.

Leer: La guerra a control remoto de Obama

La investigación en inteligencia artificial aplicada al campo militar, por su parte, está centrada en el desarrollo de armas autónomas: plataformas que localicen, seleccionen y ataquen objetivos de forma autónoma, sin intervención humana.

El peligro real de las armas autónomas

Tal y como recoge un informe del Comité Internacional de la Cruz Roja, el derecho internacional humanitario prohíbe todas las tácticas y armas que no sean capaces de diferenciar entre los que son combatientes y los que no, como civiles o personal médico. Además, condena las minas antipersona, las armas químicas, biológicas, o las balas explosivas. Tampoco está permitido atacar un enemigo herido o que se está rindiendo.

“He trabajado mucho en sistemas de visión artificial, conozco bien el estado del arte y puedo afirmar que para un máquina no es posible poder identificar estas situaciones, no solamente reconocer que un soldado está herido o no reconocer los gestos o expresiones orales de un soldado intentando rendirse, sino que ni siquiera es capaz distinguir entre un combatiente y un civil”, asegura el investigador del CSIC.

Un sistema de armas basado en una inteligencia artificial, sin control humano, no es consciente de sí mismo, dada la imposibilidad a corto y largo plazo de desarrollar una inteligencia artificial del tipo general. Serradilla afirma que “un soldado humano probablemente mate igual, pero le queda la conciencia como último recurso: puede desertar, cambiar de bando, dejarse matar, perdonar una vida. Un sistema de inteligencia artificial ejecuta un programa: evaluaría el peligro y disparará si tiene que hacerlo según su programa”. López de Mántaras, por su parte, resalta que una máquina estaría exenta de responsabilidades, puesto que un ser humano puede ser juzgado por crímenes de guerra, a diferencia de un robot o un dron.

Una nueva era de la guerra

Teniendo en cuenta todo lo anterior, López de Mántaras duda que las armas autónomas sean capaces de cumplir con el derecho internacional humanitario: para su cumplimiento es imprescindible tener la capacidad de evaluar de forma subjetiva situaciones que un ordenador no puede llegar a determinar, y tampoco podrá hacerlo a largo plazo, hasta el punto que una directiva del Departamento de Defensa de Estados Unidos reconoce que la pertinencia de uso de la fuerza debe recaer en un ser humano y no una máquina.

Un sistema de inteligencia artificial ejecuta un programa: evaluaría el peligro y disparará si tiene que hacerlo según su programa
Este investigador del CSIC también advierte de la posibilidad de una escalada bélica sin precedentes, dado que los países que temen entrar en guerras con infantería por la respuesta negativa de la sociedad, que llorará a sus compatriotas caídos, lo tendrán más fácil para involucrarse en este tipo de conflictos en un escenario en que los combatientes sean robots.

“Las armas autónomas son una línea roja que no debemos cruzar. Tenemos que conseguir que se prohíban lo antes posible de la misma forma que se prohíben las armas químicas y las bacteriológicas. Si esperamos unos pocos años, ya será tarde, y luego nos lamentaremos cuando veamos por televisión robots soldados matando niños”, sentencia López de Mántaras.

Movilización de la comunidad científica

La comunidad científica ya se ha movilizado en contra de la aplicación militar de la investigación en inteligencia artificial. El 28 de julio del año pasado el Future of Life Institute publicó una carta abierta alertando sobre las consecuencias que podría tener un desarrollo equivocado de esta tecnología. La carta está firmada a día de hoy por más de 20.000 personas, y entre las personalidades firmantes más destacadas figuran Stephen Hawking, Noam Chomsky o Steve Wozniak, cofundador de Apple.

“La pregunta clave para la humanidad a día de hoy consiste en, o bien comenzar una carrera armamentística de armas basadas en inteligencia artificial, o bien prevenirla. Si cualquier potencia militar mayor impulsa el desarrollo de armamento autónomo, una carrera armamentística es virtualmente inevitable, y el final de esta trayectoria tecnológica es obvio: las armas autónomas se convertirán en los Kalashnikovs del mañana”, recoge la carta, en la que también se afirma que sería cuestión de tiempo que las armas autónomas acaben en el mercado negro, en manos de señores de la guerra o terroristas.

Aplicaciones en el presente y el futuro

Las aplicaciones de mayor relevancia en la actualidad en la investigación civil están relacionadas con la web, videojuegos y robots autónomos (automóviles con pilotaje automático, robots de exploración de planetas e incluso pequeños robots domésticos). También se desarrollan inteligencias artificiales al servicio de la economía, la sociología o la farmacología con el objetivo de simular interacciones entre grandes cantidades de agentes y elaborar predicciones. Por ejemplo, en el caso de la industria farmacéutica se utiliza para anticipar posibles efectos secundarios de fármacos en desarrollo.

Imprimir Imprimir
Versión PDF PDF
Enviar
Corregir
+A Agrandar texto
+A Disminuir texto
Licencia

comentarios

0