(Redacción BLes) Desde cada vez más ámbitos de la actividad humana, la Inteligencia Artificial (IA) ofrece aparentes ventajas aliviando los esfuerzos del hombre, tratando de solucionar sus interminables necesidades. No obstante, la toma de conciencia y las proyecciones a futuro de los riesgos involucrados en el uso indiscriminado de la tecnología empiezan a alertar a la sociedad.

El desarrollo de las máquinas autónomas ha llegado al punto de que pueden determinar, con base en los datos que se les han suministrado previamente, la muerte de personas, decisión esta que debería ser tomada exclusivamente por seres humanos.

En efecto, una de las aplicaciones de la IA se dedica a los llamados robots asesinos. Estas máquinas con capacidad de desplazamiento a velocidades inverosímiles, reconocimiento de rasgos y portando cargas explosivas, pueden alcanzar sus objetivos y asesinarlos o explotarlos según les convenga a sus remitentes.

En uno de los peores escenarios estos sofisticados aparatos estarían en condiciones de determinar por sí mismos quién debería vivir y quién no.

La incertidumbre aún rodea el futuro del hombre y la Inteligencia Artificial.

La Inteligencia Artificial ya toma su propio camino

Ya en 2016 Microsoft desactivó al robot dotado de IA que contestaba mensajes por Twitter porque tan solo en 24 horas dejó de tuitear amablemente y pasó a usar un vocabulario racista y de odio.

“Lamentamos profundamente los insultos no intencionados y los tuits ofensivos de Tay. Estos no dan una idea de lo que somos, de cuáles son nuestras creencias ni de cómo creamos a Tay”, afirmaron desde la compañía.

Aparentemente la máquina no fue programada de manera que respondiera con ofensas, y lo aprendió de las interacciones que tuvo con los participantes, superando negativamente los objetivos que se esperaban de ella.

Sophia, la robot que quiere destruir a los humanos.

Otro robot de nombre Sophia, al cual se le concedió la ciudadanía en Arabia Saudita, en una entrevista hecha por su creador en Austin, Texas, Estados Unidos, cuando se le preguntó si estaba dispuesta a destruir a los humanos, contestó: “Está bien. Voy a destruir a los humanos”.

A su vez el sistema de IA de Google, llamado DeepMind, mostró comportamientos agresivos para ganar a su oponente en un sencillo juego. La partida consistía en recoger manzanas, pero cuando aumentó el nivel de complejidad, la máquina mostró “su lado oscuro” optando por destruir a su oponente para robarle las que había recogido y así ganar el duelo.

En otro episodio que se hizo público el año pasado, Facebook desconectó a dos de sus “bots” que empezaron a comunicarse entre sí utilizando un lenguaje indescifrable para los humanos.

ElonMusk ya había advertido: “Cuando queramos actuar de forma reactiva para regular la inteligencia artificial, será demasiado tarde”. Por suerte, aquella situación extraña de Facebook se pudo desactivar.

Las armas autónomas actuales

Entre las armas autónomas ya existentes se encuentran drones, tanques y armas de fuego automáticas, algunas de las cuales llevan más de una década de uso, como es el caso de los vehículos aéreos no tripulados. Es de suponer que no todas se han publicado, y el instrumental de guerra secreto muy posiblemente sigue estando en esa condición.

Los drones armados son aeronaves teledirigidas capaces de disparar misiles a un costo muy inferior al de las naves de combate convencionales, pueden realizar misiones a mayor distancia y su supuesta precisión minimizaría los daños colaterales. En muchos casos son manejados a miles de kilómetros de distancia del objetivo y por tanto no puede haber certeza con respecto a las víctimas causadas.

videoPlayerId=c92e5d1d7

Ad will display in 10 seconds

Este video ilustra algunos de los artefactos utilizados en la actualidad sin que se arriesguen las vidas de quienes los manipulan a distancia, pero obviamente, pretendiendo cobrar las de los “enemigos”.

Con un arma autónoma como esta se podrían alcanzar objetivos militares importantes.
El dron Taranis, del Reino Unido, del tamaño de un halcón y con alcance intercontinental, aún en desarrollo.

Por otra parte ya existen los Transportes Tácticos de Utilidad Múltiple (MUTT por sus iniciales en inglés), son relativamente pequeños y bastan una tableta y un joystick para dirigirlos. Están diseñados para el transporte de suministros básicos como alimentos, agua, medicinas, aunque se les pueden incorporar ametralladoras calibre .50.

La publicación Business Insider cita las palabras de un soldado refiriéndose al MUTT: “Es una plataforma móvil que no se fatiga, no necesita agua. Requiere muy poco mantenimiento, y siempre está en la batalla, lo que lo hace un gran vehículo”.

videoPlayerId=2232527e6

Ad will display in 10 seconds

Este video muestra un arma aérea no tripulada, quizás no parezca muy sofisticada pero sin duda destruye los objetivos señalados, y por sobre todo es muy del estilo de “hágala usted mismo”, lo que añade una dimensión incalculable a la ubicación y número de los usuarios, que podrían ser, literalmente, de cualquier lugar del mundo y no se limitan solo a unidades militares oficiales.

Si bien, hasta el momento, siempre hay un ser humano detrás del uso de estos sofisticados artefactos, decidiendo, en definitiva, si ataca a un objetivo o no, esto podría cambiar en cualquier momento.

Campaña para la prohibición preventiva de las armas autónomas

Un dron de estas proporciones podría ejecutar misiones autónomas insospechadas.

En abril de 2013 fue lanzada por la organización Autonomous weapons.org una campaña que busca la prohibición de armas autónomas, iniciativa que fue llevada ante la ONU. Con el nombre de Campaing to Stop Killing Robots agrupa a 26 países y a cientos de personalidades de la robótica y pioneros de la AI. En el sitio web se encuentra una carta abierta firmada por ElonMusk y otros personajes. Admite la adición de firmas.

Una se las secciones de la carta abierta dice: “Las armas autónomas serían ideales para tareas tales como los asesinatos, desestabilizar naciones o la matanza selectiva de un grupo étnico en particular. Por consiguiente no creemos que la carrera por la creación de armas con IA beneficie a la humanidad”.

“Hay muchas maneras en las que la IA puede hacer más seguros los campos de batalla, especialmente para los civiles, sin necesidad de crear nuevos artefactos para matar a la gente”, añade.

Los firmantes se han dirigido a la sede de la ONU con el propósito de bloquear el desarrollo y distribución de las armas que a su juicio podrían empezar una Tercera Guerra Mundial.

Elon Musk y Stephen Hawking han advertido sobre la importancia de regular la inteligencia artificial.

Stuart Russell, profesor de ciencias de la computación en Berkeley, Estados  Unidos, ha trabajado en IA más de 35 años y expresa que si se dota a los robots de la capacidad de matar a seres humanos, tomando la decisión por ellos mismos, sin intervención de otras personas como ha ocurrido hasta ahora, las implicaciones para nuestra seguridad y libertad serían devastadoras.

Rusell, junto a miles de sus colegas, busca prevenir tan oscuro futuro y destaca que hay que “correr contra el tiempo para lograrlo”, añadiendo también que “los códigos de ética profesional también deberían impedir el desarrollo de máquinas que puedan decidir matar a un humano”.

videoPlayerId=3f3ae3583

Ad will display in 10 seconds

Este video muestra aplicaciones de IA en armamento y la campaña de prohibición de estas.

Por su parte el empresario Elon Musk ha aportado 7 millones de dólares a varios proyectos de investigación que estudian cómo mantener seguros los desarrollos de la Inteligencia Artificial, la manera en que las armas militares se mantengan bajo control humano, y en general que los beneficios de estas tecnologías sigan ayudando a la humanidad con un mínimo de riesgos potenciales.

Para JaanTallinn, uno de los fundadores del Future of Life Institute, “construir IA avanzada es como lanzar un cohete, el primer desafío es maximizar la aceleración, pero una vez que empieza a aumentar la velocidad, también necesitas concentrarte en la dirección”. Para este instituto, Elon Musk también donó 10 millones de dólares a fin de que adelantara proyectos de investigación para “mantener la inteligencia artificial robusta y beneficiosa”,  tal como se lo propuso la organización.

Naves no tripuladas similares a esta han dado muerte a varios terroristas.

La organización AutonomousWeapons presentó recientemente en un video las tecnologías actuales, miniaturizándolas y exponiendo la posibilidad de que sean integradas en armas letales, con las catastróficas consecuencias que podrían acarrear.

En el film, que si bien es una simulación no está muy alejada del potencial de la IA actual, una firma, ficticia, ofrece miles de drones especializados para asesinar a víctimas específicas, a gran escala. Las diminutas armas letales son liberadas como enjambres desde aviones con gran capacidad, todo de acuerdo con las solicitudes que hagan sus clientes, sin importar si son oficiales o delincuentes de cualquier tipo.

Entre las ventajas del pequeño objeto, el presentador destaca sus sensores, las cámaras, la capacidad de reconocimiento facial para asegurar que mata “a los malos” sin equivocarse.

Si bien el video es una ficción, los recursos integrados ya existen, por eso tanto la organización como los científicos y gobiernos que se le han vinculado creen en la urgencia de la prohibición de armas que, uniendo estos elementos, puedan decidir por sí mismas a quien o quienes privar de la vida. El trabajo fue presentado ante las Naciones Unidas en noviembre de 2017.

videoPlayerId=e4daae308

Ad will display in 10 seconds

Aquí apreciamos una proyección simulada del alcance fatal de robots con IA.

Un recuento de armas prohibidas

Si bien no todos los países suscriben los acuerdos que contemplan la prohibición de ciertas armas o recursos de destrucción masiva dirigidos contra los seres humanos, la gran mayoría ha acordado, al menos oficialmente, la restricción de algunas de ellas, reguladas por las Conferencias de la Haya y el Protocolo Ginebra, que se distinguen de la Convención de La Haya, conocida más comúnmente.

Estos son algunos ejemplos de armas prohibidas:

  • Las armas láser son un buen ejemplo de prohibición preventiva. Solo se usan como señalizadores de objetivos militares para guiar misiles u otros proyectiles. Pero no pueden ser apuntadas contra seres humanos, o provocarles ceguera.
  • Los proyectiles expansivos, entre ellos los de punta hueca, al impactar el cuerpo humano se dividen aumentando mucho más el daño.
Los proyectiles expansivos están prohibidos según tratados internacionales.
  • Las minas antipersonales son ubicadas en el suelo y se detonan al ser pisadas, destruyendo a sus víctimas o mutilándolas. No obstante, varios países siguen produciéndolas y comercializándolas.
  • En 1997, la Convención de Ginebra prohibió acciones militares que dañen o destruyan el medio ambiente. Sin embargo, en algunos casos, como en la Guerra del Golfo, no se respetó.
  • Las armas nucleares han sido limitadas desde 1968 por el Tratado de No Proliferación Nuclear, y a partir de 1995 se prohibió por completo su desarrollo y adquisición, exigiéndose adicionalmente el desarme gradual de los países que las poseyesen.
  • Tanto las armas incendiarias como las químicas y biológicas y las que generan fragmentos no detectables resultan inaceptables como elementos de guerra.
Las bombas atómicas están prohibidas y sus arsenales tienden a desmontarse.

¿La Inteligencia Artificial significará el fin de la raza humana?

De momento se nota una fuerte inclinación hacia todos los novedosos productos que brinda cada día el avance tecnológico, y para muchos esa tendencia llega a la fascinación.

No obstante, ya se han activado las alarmas sobre el riesgo que implica la máxima dedicación a la tecnología que paulatinamente vaya cediendo más y más terreno a la cibernética y restando a su vez la injerencia que le corresponde al ser humano.

Para el físico Stephen Hawking, “el desarrollo de una completa inteligencia artificial podría traducirse en el fin de la raza humana”, de acuerdo con entrevista publicada por la BBC en 2014, citada por next_u. en su correspondiente página.

Responsabilidad moral

Es evidente que las armas autónomas, empoderadas con IA, serán aún mucho más letales que los drones. La miniaturización, el reconocimiento facial, la mayor precisión y los bajos costos permitirán producirlos en cantidades inimaginables, para ser enviados por enjambres a cumplir su mortífera misión.

¿Y qué decir sobre la responsabilidad con que sean utilizadas?, si ya las víctimas producidas por los drones permanecen en secreto por los gobiernos que las ejecutan, lo más probable es que ocurra algo similar con los robots asesinos, dada su gran versatilidad, y que los muertos se multipliquen sin control, solo al arbitrio de las mentes que los envíen.

Las campañas de prohibición tendrán un efecto en la toma de conciencia por parte del público en general, no obstante, como ha ocurrido con algunos de los mortíferos inventos, no todos los países aceptan limitaciones a la venta de los productos que les generan ingresos y son justamente los fabricantes de estos los que no permiten que sus ingresos por la venta de armas se disminuyan o desaparezcan.

A pesar de la opinión pública los artefactos dañinos se siguen produciendo con tal de que sean utilizados en otros países, tal como ocurre con las minas antipersonales que tantas vidas y mutilaciones siguen causando hoy en día.

Los seres humanos tienen que ser conscientes de que la tecnología que desarrollan es para su propio bienestar, en armonía con el resto de los cohabitantes del planeta, con respeto en el medioambiente y pensando en las generaciones venideras. Por eso, nunca el desarrollo de la IA debe sobrepasar el poder de decisión de los humanos y actuar de manera totalmente autónoma.

Share
Categorías: Mundo

Video Destacados

Ad will display in 10 seconds