Científicos piden que se prohíba el uso de los robots asesinos

29 Julio 2015
El Repuertero >
authenticated user Editor

El astrofísico Stephen Hawking y el cofundador de Apple, Steve Wozniak, son algunas de los científicos y personalidades del mundo que lanzaron esta semana un llamado para prohibir las armas ofensivas autónomas, conocidas como “robots asesinos”.

Así lo manifestaron miles de reconocidos pensadores a través de una carta en la que expresan que "las armas autónomas seleccionan y atacan objetivos sin intervención humana", misiva que publicaron esta semana en el marco de la Conferencia Internacional Conjunta de Inteligencia Artificial (IJCAI) que se realiza en Buenos Aires, Argentina.

Entre los firmantes se encuentran, además, el empresario de altas tecnologías Elon Musk, presidente de Tesla (autos eléctricos), SolarCity y SpaceX (tecnología espacial); así como el nobel de Física Frank Wilczek o el cofundador de Skype, Jaan Tallinn.

IA

"La tecnología de la Inteligencia Artificial (IA) ha alcanzado un punto en que el despliegue de estas armas será una posibilidad técnica (si no legal) en años, no décadas, y hay mucho en juego", manifiestan en la carta firmada por investigadores y profesores de Harvard, Berkeley, Cambridge, París o Berlín.

Uno de ellos, Toby Walsh, profesor de Inteligencia Artificial de la Universidad New South Wales de Australia, dijo que “todas las tecnologías pueden ser usadas para el bien o para el mal".

Pese a advertir sobre el peligro de su uso, Walsh fue enfático en la defensa del desarrollo de la Inteligencia Artificial argumentando que puede ser usada para enfrentar muchos de los problemas más acuciantes de la sociedad actual como la inequidad y la pobreza, el creciente costo del cuidado de la salud y el impacto del calentamiento global.

GUERRA AUTOMATIZADA

"La diferencia entre las armas autónomas y los drones que estamos viendo en Irak y en otros lugares es que no hay un ser humano que intervenga en el proceso", explicó Toby Walsh a la agencia de noticias AFP.

"En estos casos tenemos un soldado con un control remoto manejando ese dron y él es quien toma las decisiones de matar o no matar. En cambio, (con las armas autónomas) estamos hablando de un computadora tomando decisiones de vida o muerte y esto significa cruzar un límite moral", dijo el investigador.

Desde el punto de vista militar, estas armas tienen la ventaja de reducir las pérdidas humanas en el campo de batalla, pero los científicos recuerdan que eso abarataría el costo de ir a la guerra y podría provocar una nueva carrera armamentista.

La inteligencia artificial "tiene un gran potencial para beneficiar a la humanidad", pero "el inicio de una carrera armamentista de Inteligencia Artificial militar es una mala idea", dicen los adherentes a la misiva.