Boletines de Sistemas
28-07-2025
¿Qué es la seguridad de la IA?
La seguridad de la IA se refiere a las prácticas y principios que ayudan a garantizar que las tecnologías de IA se diseñen y utilicen de forma que beneficien a la humanidad y minimicen cualquier posible daño o resultado negativo.
Construir sistemas de inteligencia artificial (IA) seguros es una consideración crítica para las empresas y la sociedad, debido a la creciente prevalencia e impacto de la IA. La seguridad de la IA garantiza que los sistemas se utilicen de la forma más responsable posible y que el futuro de esta tecnología se desarrolle en consonancia con los valores humanos.
Desarrollar y mantener una IA segura implica identificar los riesgos potenciales de la IA (como el sesgo, la seguridad de datos y la vulnerabilidad a las amenazas externas) y crear procesos para evitar y mitigar dichos riesgos.
¿Por qué es importante la seguridad de la IA?
A medida que los sistemas de IA se vuelven más sofisticados, se integran más profundamente en la vida de las personas y en ámbitos críticos del mundo real como las infraestructuras, las finanzas y la seguridad nacional. Estas tecnologías pueden tener repercusiones tanto positivas como negativas en las organizaciones que las utilizan y en la sociedad en su conjunto.
A los expertos también les preocupa que algunos sistemas avanzados de IA puedan llegar a ser igual o más inteligentes que los humanos. La inteligencia artificial general (AGI) se refiere a sistemas potenciales de IA que entienden, aprenden y llevan a cabo tareas de pensamiento de la misma manera que lo hacen los seres humanos. La superinteligencia artificial (ASI) se refiere a sistemas hipotéticos de IA con un alcance intelectual y funciones cognitivas más avanzadas que cualquier ser humano. El desarrollo de la AGI y la ASI suscita la preocupación de que estos sistemas sean peligrosos si no se alinean con los valores humanos o no están sujetos a la supervisión humana. Si se les dota de demasiada autonomía, los críticos afirman que estos sistemas supondrían una amenaza existencial para la humanidad.
Desde el punto de vista empresarial, una IA segura ayuda a generar confianza en los consumidores, a protegerse frente a responsabilidades legales y a evitar la toma de decisiones erróneas. Las organizaciones que toman medidas para garantizar que el uso de la IA está en consonancia con sus valores pueden evitar consecuencias negativas para sí mismas y para sus clientes.
Tipos de riesgos de la IA
Los riesgos de la IA pueden clasificarse en varios tipos, cada uno de los cuales requiere diferentes medidas de seguridad de la IA y esfuerzos de gestión de riesgos.
- Sesgo y equidad
- Privacidad
- Pérdida de control
- Riesgos existenciales
- Uso indebido malintencionado
- Ciberseguridad
Sesgo y equidad
Los sistemas de IA pueden perpetuar o amplificar los sesgos sociales. El sesgo algorítmico se produce cuando la IA se entrena con entradas y datos incompletos o engañosos. Esto puede llevar a una toma de decisiones injusta. Por ejemplo, una herramienta de IA entrenada con datos discriminatorios podría ser menos propensa a aprobar hipotecas para solicitantes de determinados orígenes o podría ser más propensa a recomendar la contratación de un hombre en lugar de una mujer.
Privacidad
Los sistemas de inteligencia artificial pueden acceder a datos personales, exponerlos o utilizarlos indebidamente, lo que plantea problemas de privacidad. Si se vulneran datos sensibles, los creadores o usuarios de un sistema de IA podrían ser considerados responsables.
Pérdida de control
Los resultados de los sistemas avanzados de IA, especialmente los creados para funcionar como agentes autónomos, pueden ser impredecibles. Sus acciones también pueden ser perjudiciales. Si son capaces de decidir de forma independiente, puede ser difícil detenerlos. Sin un elemento de control humano, podría ser imposible intervenir o detener un sistema de IA que actúe de forma inadecuada.
Riesgos existenciales
La AGI, la ASI y otros sistemas de IA muy avanzados podrían actuar de forma que pusieran en peligro a la humanidad o perturbaran los sistemas globales si se gestionan incorrectamente.
La IA también podría utilizarse indebidamente para la manipulación social a gran escala o la guerra cibernética. En 2023, el Centro para la Seguridad de la IA (CAIS), una organización sin ánimo de lucro publicó una declaración de una sola frase respaldada por varios investigadores y líderes de la IA. Decía: «Mitigar el riesgo de extinción de la IA debería ser una prioridad mundial junto con otros riesgos a escala social, como las pandemias y la guerra nuclear».
Uso indebido malintencionado
Aunque las consecuencias no deseadas y los errores son una fuente de riesgo de la IA, los malos actores también pueden utilizar la tecnología intencionadamente para causar daño. La IA puede convertirse en un arma para ciberataques, campañas de desinformación, vigilancia ilegal o incluso daños físicos. Estas amenazas existen tanto a nivel individual como social.
Ciberseguridad
Los sistemas de IA pueden ser vulnerables a problemas de seguridad. Se enfrentan a la posibilidad de sufrir ataques adversos, en los que actores malintencionados manipulan las entradas de datos para engañar a los modelos, lo que conduce a outputs incorrectos.
Un ejemplo, los jailbreaks de IA (o fugas de IA) se producen cuando los piratas informáticos utilizan inyecciones de prompt y otras técnicas para explotar las vulnerabilidades de los sistemas de IA y llevar a cabo acciones restringidas. El envenenamiento de datos se produce cuando los datos de entrenamiento comprometidos sesgan el comportamiento de la IA. El acceso no autorizado y otras vulnerabilidades o riesgos de seguridad pueden dar lugar a un uso indebido de los sistemas de IA y sus datos.
En un próximo boletín seguiremos profundizando este tema, considerado como un área crítica, compleja y dinámica que evoluciona constantemente debido a los desafíos éticos, la velocidad de los avances tecnológicos y la necesidad de proteger la privacidad y la integridad de los datos que implica.
La seguridad de la IA no es solo una cuestión técnica, sino es un pilar fundamental para el desarrollo ético, responsable y beneficioso de la inteligencia artificial en el futuro. Es esencial abordarla de manera proactiva para minimizar los riesgos y maximizar el potencial positivo de esta tecnología.
Si tiene alguna consulta en relación con esta temática, por favor no dude en contactarse con nosotros al tel.: 7078 8001 o por email a it@jebsen.com.ar.
Cordialmente.
Laura Borroni
Ingeniera en Sistemas
Depto. IT
Departamento de Sistemas
Agosto 2025
Este boletín informativo ha sido preparado por Jebsen & Co. para información de clientes y amigos. Si bien ha sido confeccionado con el mayor cuidado y celo profesional, Jebsen & Co. no asume responsabilidades por eventuales inexactitudes que este boletín pudiera presentar.