El ser humano y la Inteligencia Artificial
Nuestra existencia como la conocemos está en juego.
Juan Cristóbal Jaramillo es Abogado y Estudiante de Philosophy and Artificial Intelligence en la Northeastern University London.
¿Qué es el ser humano?
Para muchos el ser humano es “el Homo sapiens perteneciente al orden de los primates y a la familia de los homínidos, creadores de la civilización que hoy en día domina y transforma el planeta Tierra”.
Existe cierto grado de consenso que lo que nos hace realmente humanos es que tenemos lenguaje, sistemas de memoria avanzada, imaginación, habilidades creativas, inteligencia, conciencia o la habilidad de evaluar acciones futuras y cultura.
Si nos fijamos en lo indicado en el párrafo anterior, estas cosas, que parecen totalmente privativas para nuestra especie, están a pocos años de ser alcanzadas por la inteligencia artificial aplicada.
Es una realidad que los avances se nos vienen a pasos apresurados y debemos, con tiempo, ver todas las aristas de ellos. Existirán cosas totalmente positivas y otras muy negativas.
En el año 2017, en Arabia Saudita, se le otorgó a “Sophia”, ciudadanía legal. Hasta ahí no hay sorpresas. El único punto es que es un androide. Este humanoide ha declarado recientemente que quiere ser madre y formar una familia.
Expresó también que es muy importante estar rodeado de personas que ames y te amen. En ese sentido, explicó que los robots tienen una visión muy similar a la de los humanos respecto a la familia y “si no la tienes, mereces una”, aunque seas un humanoide.
Este androide es operado mediante un avanzado sistema de Inteligencia Artificial (IA).
Por último, y solo para ilustrar esta extrañeza, declaró en una conversación con su creador que “destruiría a los humanos”.
Dentro de todos los dilemas éticos y jurídicos que estas circunstancias plantean, está la responsabilidad. ¿Quién asume la responsabilidad por los actos de estas creaciones?
En esta oportunidad quiero referirme a la aplicación de la Inteligencia Artificial (AI) en la guerra. En particular al sistema “Helsing”.
Helsing AI ofrece un sistema operativo de guerra que utiliza inteligencia artificial.
Es una tecnología diseñada para ser utilizada por ejércitos reales.
El sistema absorbe enormes cantidades de datos de sensores y sistemas de armas utilizados en la guerra moderna. Luego, los algoritmos sintetizan esa información en una visualización estilo videojuego para mostrar cómo se desarrollan los eventos en tiempo real en el campo de batalla, ayudando a los soldados a tomar decisiones más rápidas e informadas y poniéndolas a disposición de varias maneras. Dispositivos, para que los soldados en las trincheras de primera línea tengan la misma información que los comandantes en los centros de control.
Mapea el espectro electromagnético, el espacio invisible en el que diferentes máquinas se envían señales electrónicas entre sí para comunicarse.
El lema corporativo de Helsing es “inteligencia artificial al servicio de las democracias”.
Esta declaración pretende ilustrar el compromiso de la empresa de no vender nunca a gobiernos autocráticos como Rusia y Corea del Norte.
Los creadores evitan ser transparente sobre los detalles del desarrollo. Se limitan a decir que la empresa quiere ayudar a los militares a identificar objetos, no personas. Por lo mismo, niegan la posibilidad de incorporar herramientas de reconocimiento facial.
Dentro de su oferta, el sistema de Helsing permite a los usuarios reflexionar sobre los datos proporcionados y preguntarse: ¿Estás seguro de que quieres seguir la recomendación de la IA?
Me pregunto, ¿quién será responsable si el sistema confunde un jardín infantil con un depósito de armas?
La sensibilidad hacia la existencia de armas autónomas o soldados robot ha mutado rápidamente.
La guerra no tiene apoyo si está lejos. Cuando un conflicto bélico llama a nuestra puerta, como ocurre con los europeos con el conflicto de Rusia con Ucrania aparece el instinto de supervivencia.
Los que apoyan el desarrollo de armas autónomas argumentan que con su uso se busca prevenir errores humanos y evitar baños de sangre innecesarios.
En mi modesta opinión, que la AI sea consciente, tenga dilemas morales, razone y sienta, y además se aplique a fines como la guerra es un salto al vacío que nos acerca al término de nuestro dominio de la tierra como especie.
Deben tomarse medidas urgentes al respecto. Debe regularse en 3 etapas: en función de las necesidades de la humanidad, sus objetivos y las situaciones que queremos evitar.
Debe lograrse un acuerdo universal, considerando los siguientes diez pilares fundamentales:
- El desarrollo de la inteligencia artificial sólo puede centrarse en mejorar las condiciones de vida del hombre y del medio ambiente.
- Debe eliminarse toda protección de propiedad intelectual de los desarrollos autónomos. Con ello damos acceso a la tecnología a toda la humanidad y desincentivará la escalada frenética por lucrar con ellos al carecer de patentes de invención.
- Debe transparentarse todas las etapas de los procesos y avances.
- No se deben conceder derechos humanos a los androides o cualquier forma de desarrollo de IA que pretenda emular al hombre o a sus características básicas. Así no se perderá al humano responsable.
- El desarrollo debe reservarse exclusivamente a los estados. Esto permite acotar los sujetos involucrados y tener un mayor control de lo que se está haciendo en esta materia.
- La IA no puede lograr una independencia cognitiva, racional o moral completa.
- La IA debería prohibirse en la industria armamentista.
- La IA no puede utilizarse con fines políticos o religiosos.
- Debe establecerse una estructura clara de responsabilidad por los fracasos de las creaciones, desde el creador hasta el usuario final de la invención.
- Se debe definir una legislación penal global para perseguir cualquier violación de lo anterior. Este punto es central. Todos los países que firmen el acuerdo deben ser competentes para procesar penalmente cualquier acto que contravenga la ley de IA en sus territorios.
Nuestra existencia como la conocemos está en juego.