10 Riesgos de la Inteligencia Artificial

La Inteligencia Artificial (IA) es uno de los fenómenos más comentados en los últimos años. Es un tema al que ya se le han dedicado estudios, documentales, libros, películas y un sinfín de contenidos con el propósito de entender todas sus dimensiones. Es cierto que cada vez nos sentimos más cerca de comprenderla al ser testigos de su potencial en diferentes industrias, sin embargo, aún falta mucho por averiguar. 

Para empezar, dar una definición precisa de la IA ha sido una ardua labor para científicos, psicólogos, ingenieros, lingüistas, desarrolladores y miles de profesionistas. Hasta ahora se ha tratado de explicar que la IA es una simulación de procesos por parte de máquinas o sistemas informáticos, que pretenden replicar el comportamiento y la inteligencia humana.

El desarrollo de la IA ha tenido un crecimiento exponencial. En la actualidad podemos ver grandes avances en el transporte; con los vehículos autónomos, en la medicina; al realizar diagnósticos con el análisis de imágenes, o las finanzas; con la implementación de chatbots. 

Es evidente el empuje que ha tenido la IA en diferentes industrias, lo que inevitablemente desata una ola de optimismo que no está exenta de preocupaciones. El avance tecnológico no es algo inocuo, siempre viene acompañado de preguntas relacionadas con el impacto en la sociedad, que muchas veces tienen matices éticos. 

Los riesgos de la inteligencia artificial

Varios especialistas se han hecho preguntas como: ¿Cómo construir una legislación para que la IA sea más justa? ¿Cómo se pueden disminuir los riesgos?  ¿Qué pasa si los sistemas son hackeados? ¿Es posible implementar la automatización sin desplazar a los humanos? Tales cuestionamientos han develado varios riesgos que ya hemos experimentado, así como posibles situaciones que podremos enfrentar en el futuro. Algunos de ellos son: 

1. Impacto en el empleo 

Esta siempre será una de las principales preocupaciones, pues a lo largo de la historia, los grandes cambios tecnológicos vienen acompañados de cambios sociales, lo que ha implicado la desaparición de puestos de trabajo. El verdadero desafío en este tema es que las empresas y los trabajadores se adapten a sucesos como la automatización y digitalización.

2. Manipulación, seguridad y vulnerabilidad

Como usuarios de internet revelamos un montón de información privada, muchas veces con poca reflexión. Estos datos pueden ser analizados para predecir sucesos como los resultados de las votaciones, por ejemplo. El problema es que toda esta información puede ser utilizada para manipular a las personas a tomar decisiones que convengan a grupos específicos, más allá del bienestar social.  

3. Transformación de las relaciones humanas  

Con la proliferación de dispositivos, aplicaciones, y herramientas con IA han cambiado nuestras interacciones y procesos sociales. Con este panorama parece más cercana la posibilidad de perder nuestras habilidades personales.

4. Autonomía

Uno de los mayores temores en torno a la AI es llegar al punto en el que ésta se vuelva autónoma y tome sus propias decisiones sin pensar en la humanidad. Si bien, este temor está principalmente alimentado por la ciencia ficción y la industria cinematográfica, existen casos como el de los chatbots que crearon su propio lenguaje, incomprensible para sus programadores. 

5. Principios éticos para enfrentar los riesgos

En el transcurso de los años, expertos se han dedicado a establecer pautas que permitan que el desarrollo tecnológico y su implementación se hagan de forma responsable y segura. Al elegir una perspectiva ética se busca la universalidad de principios que sirvan como guía para los diferentes escenarios en los que la IA esté involucrada. Ciertamente es una tarea compleja que está más allá de decir que es bueno o malo, pero es un esfuerzo que vale la pena, porque al delimitar ciertos estándares es posible potenciar los beneficios del desarrollo tecnológico y reducir los riesgos. A continuación compartimos algunos consensos ha los que ha llegado la Unión Europea: 

6.Respeto de la autonomía humana

Al desarrollar cualquier sistema inteligente, siempre debe estar en mente el respeto por la vida y los derechos humanos sin ninguna discriminación.

7. Transparencia

La idea es que haya una trazabilidad y explicación clara sobre los objetivos y funcionamiento de los sistemas. Por ejemplo, si hablamos de una herramienta de análitica, se debe haber trasparencia en los datos que se utilizan, el funcionamientos del algoritmo y los resultados obtenidos. 

8. Responsabilidad y rendición de cuentas

Al desarrollar cualquier sistema debe haber una clara asignación de responsabilidades ante posibles daños. La autonomía de los sistemas no debe ser una excusa para evitar estas obligaciones. 

9. Robustez y seguridad

Se deben desarrollar algoritmos seguros, fiables y sólidos para operar de manera precisa y responder a posibles fallas o errores de los sistemas, así como a ataques cibernéticos. 

10. Justicia y no discriminación

Esto es  esencial para una implementación equitativa de la IA en todo el mundo. Se deben usar datos de manera honesta e imparcial evitando la discriminación y otros factores que agraven las desventajas en ciertas minorías. 

Todavía hay muchas áreas grises, no solo por lo complejo que es dilucidar los límites entre lo que es benéfico y lo que no. A pesar de los riesgos, sería un error ver a la IA con temor porque sus múltiples aplicaciones pueden ser realmente favorables para la sociedad.

El foco debe estar en regular a los responsables de estos desarrollos, pues son la clave para que la IA sea una herramienta y no un arma.  

6 abril, 2022