Palabras
clave: Inteligencia Artificial,
cibercrimen, ciberseguridad, violencia digital, México, estrategias de
protección.
Introducción
La
Inteligencia Artificial (IA) ha revolucionado diversos sectores, desde la
medicina hasta la educación, ofreciendo soluciones innovadoras y mejorando la
eficiencia en múltiples procesos. Sin embargo, esta misma tecnología ha sido
aprovechada por actores malintencionados para perpetrar actividades delictivas,
generando nuevos desafíos en materia de seguridad y protección. En México, se
han documentado casos alarmantes donde la IA ha sido utilizada para cometer
delitos, evidenciando la necesidad de implementar estrategias efectivas de
defensa y prevención.
Desarrollo
1.
Definición y Alcance de la Inteligencia Artificial
La IA se
define como la capacidad de una máquina para imitar funciones cognitivas
humanas, como el aprendizaje y la resolución de problemas (IBM, s.f.) Esta
tecnología abarca desde sistemas expertos hasta redes neuronales profundas,
permitiendo aplicaciones que van desde asistentes virtuales hasta vehículos
autónomos.
Tipos
de Inteligencia Artificial
La IA se
clasifica comúnmente en dos categorías principales:
- Inteligencia Artificial
Débil o Estrecha (ANI): Se
enfoca en realizar tareas específicas y limitadas, como el reconocimiento
de voz o la recomendación de productos. - Inteligencia Artificial
Fuerte o General (AGI): Busca
replicar la inteligencia humana en su totalidad, permitiendo a las
máquinas comprender, aprender y aplicar conocimientos de manera
generalizada.
En el
ámbito criminal, la IA estrecha ha sido utilizada para desarrollar herramientas
sofisticadas de ciberataque, incluyendo el malware autónomo, los deepfakes y
las técnicas avanzadas de phishing. Actualmente, la mayoría de las
aplicaciones prácticas corresponden a la IA débil, mientras que la IA fuerte
sigue siendo un objetivo en desarrollo.
2.
La IA como Herramienta para el Crimen
Aunque la
IA ofrece numerosos beneficios, también ha sido explotada para fines
delictivos. Los ciberdelincuentes emplean algoritmos avanzados para llevar a
cabo ataques más sofisticados y difíciles de detectar.
En 2019, se
registró uno de los primeros delitos conocidos que involucró el uso de IA.
Ciberdelincuentes utilizaron una tecnología de clonación de voz para hacerse
pasar por el CEO de una empresa y solicitar una transferencia urgente de
243,000 euros. La voz sintética convenció al director de la compañía de energía
de que estaba hablando con su superior, lo que resultó en la transferencia
fraudulenta de fondos (Abogado Digital, 2019).
Capacidades
de los Criminales al Utilizar la IA
Los
delincuentes que emplean IA pueden llevar a cabo una variedad de actividades
delictivas con mayor eficacia y sofisticación:
- Generación de
Deepfakes: Creación de
videos o audios falsos que son casi indistinguibles de los reales,
utilizados para difamación, extorsión o manipulación de la opinión
pública. - Phishing Avanzado: Desarrollo de correos electrónicos
o mensajes altamente personalizados que engañan a las víctimas para que
revelen información confidencial. - Ataques Automatizados: Uso de bots impulsados por IA para
llevar a cabo ataques de denegación de servicio (DDoS) o para explotar
vulnerabilidades en sistemas a gran escala. - Evasión de Sistemas de
Seguridad: Desarrollo de
malware que puede adaptarse y evadir las medidas de seguridad
tradicionales mediante técnicas de aprendizaje automático.
Modus
Operandi de los Ciberdelincuentes que Utilizan IA
Los
ciberdelincuentes han adoptado la IA para sofisticar sus métodos de ataque. Su
modus operandi generalmente sigue las siguientes fases:
- Selección del Objetivo: Identifican entidades con sistemas
vulnerables o desactualizados, como instituciones gubernamentales o
empresas con escasas medidas de ciberseguridad. - Desarrollo de
Herramientas Basadas en IA: Utilizan
algoritmos de IA para crear malware adaptable que puede evadir sistemas de
detección tradicionales. - Ingeniería Social
Avanzada: Emplean técnicas
de deepfake para generar contenido falso, como videos o audios, que
persuaden a las víctimas a revelar información confidencial o realizar
transferencias financieras. - Ejecución del Ataque: Implementan el malware o ejecutan
las estafas, manteniendo un perfil bajo para evitar la detección. - Exfiltración y
Monetización: Extraen datos
valiosos y los venden en mercados clandestinos o exigen rescates a cambio
de no divulgar la información.
Un ejemplo
de este modus operandi es el uso de deepfakes para clonar la voz de una persona
y solicitar transferencias de dinero a sus contactos, haciéndose pasar por la
víctima en situaciones de emergencia (TV Azteca, 2025).
La
integración de la Inteligencia Artificial (IA) en las operaciones de grupos
criminales ha transformado el panorama de la ciberdelincuencia, introduciendo
métodos más sofisticados y difíciles de detectar. Según el «Compendio
de Ciberdelincuencia Organizada» de la Oficina de las Naciones Unidas
contra la Droga y el Delito (UNODC), la tecnología, y en particular la IA, ha
sido adoptada por organizaciones criminales para facilitar diversas actividades
delictivas, desde el fraude hasta la manipulación de información.
IA
y ciberdelincuencia organizada
A nivel
internacional, se han documentado incidentes donde la IA ha sido utilizada
para cometer delitos complejos. Por ejemplo, en Hong Kong, una organización
criminal empleó deepfakes en videollamadas para estafar a múltiples víctimas,
logrando defraudar más de 46 millones de dólares. Este caso evidencia cómo
la IA puede ser utilizada para crear identidades falsas convincentes,
facilitando fraudes a gran escala.
En
México el Cártel Jalisco Nueva Generación (CJNG) es grupo delictivo ha sido señalado por
utilizar tecnologías avanzadas, incluyendo la IA, para fortalecer sus
operaciones. Según un informe de la FIIAPP, el CJNG emplea herramientas de IA
para el análisis de datos y la comunicación encriptada, lo que les permite
coordinar sus actividades de manera más efectiva.
3.
Casos Relevantes en México
Un caso
emblemático en México es el de un estudiante del Instituto Politécnico Nacional
(IPN) que utilizó IA para alterar fotografías de sus compañeras, generando
imágenes de contenido sexual sin su consentimiento. Este individuo fue acusado
de modificar fotos de compañeras con inteligencia artificial para fines
sexuales y venderlas (El País, 2024) A pesar de la gravedad de los hechos,
el caso evidenció lagunas legales y desafíos en la tipificación de delitos
relacionados con el uso de IA.
Además,
instituciones en Nuevo León, como el Poder Judicial y la Fiscalía General, han
sido objeto de ciberataques sofisticados que se sospecha involucraron técnicas
basadas en IA. Estos incidentes resaltan la vulnerabilidad de las
infraestructuras críticas ante amenazas cibernéticas avanzadas.
4.
Estrategias de Protección y Defensa
Para
contrarrestar el uso malintencionado de la IA, es esencial implementar una
combinación de medidas técnicas, legales y educativas:
- Fortalecimiento de la
Legislación: Actualizar el
marco legal para tipificar y sancionar adecuadamente los delitos cometidos
mediante IA. La Ley Olimpia, que penaliza la difusión de contenido íntimo
sin consentimiento, es un avance significativo, pero es necesario
ampliarla para abarcar nuevas modalidades de violencia digital facilitadas
por la IA. - Implementación de
Estándares de Ciberseguridad: Adoptar
estándares internacionales, como la ISO 27001, para establecer sistemas de
gestión de seguridad de la información que mitiguen riesgos asociados al
uso de IA. - Educación y
Concienciación: Desarrollar
programas educativos que informen a la población sobre los riesgos y
medidas de protección relacionados con la IA. La alfabetización digital es
clave para prevenir la victimización y fomentar prácticas seguras en el
entorno digital. - Colaboración
Interinstitucional: Fomentar la
cooperación entre entidades gubernamentales, académicas y del sector
privado para compartir información y desarrollar soluciones conjuntas
frente a las amenazas emergentes.
Medidas
de Autoprotección personales
Para
protegerse contra las amenazas facilitadas por la IA, se recomiendan las
siguientes prácticas:
- Educación Continua: Mantenerse informado sobre las
últimas tácticas de cibercrimen y las medidas de seguridad recomendadas. - Uso de Autenticación
Multifactor (MFA): Implementar MFA
en todas las cuentas en línea para añadir una capa adicional de seguridad. - Verificación de
Fuentes: Antes de
compartir o actuar sobre información, especialmente en redes sociales,
verificar la autenticidad de la fuente para evitar la propagación de
deepfakes o noticias falsas. - Actualización Regular
de Dispositivos: Mantener sistemas
operativos y aplicaciones actualizadas para protegerse contra
vulnerabilidades conocidas. - Configuración de
Privacidad: Revisar y ajustar
las configuraciones de privacidad en dispositivos y cuentas en línea para
limitar la cantidad de información personal disponible.
Consideraciones
Éticas y Desafíos Regulatorios
El
crecimiento de la IA en el ámbito del crimen plantea serios dilemas
éticos y jurídicos. A nivel global, organismos como la UNESCO han señalado
la importancia de establecer marcos éticos para la IA, garantizando
que su uso no vulnere derechos fundamentales
(UNESCO, 2023). En México, la legislación actual no aborda específicamente el
uso de IA en delitos digitales, dejando vacíos normativos en
la tipificación y sanción de estos actos.
Para mitigar estos problemas, se
recomienda la implementación de regulaciones específicas sobre IA y
ciberseguridad, alineadas con normativas internacionales como el Reglamento
General de Protección de Datos (GDPR) en la Unión Europea.
En México
el Artículo 211 bis del Código Penal Federal,
que tipifica los delitos informáticos en México, pero no contempla de manera
explícita delitos cometidos con IA. Mientras que Ley General de
Protección de Datos Personales en Posesión de Sujetos Obligados, establece
regulaciones sobre el manejo de información personal, pero no aborda la
generación de datos sintéticos mediante IA.
Conclusión
La Inteligencia Artificial,
aunque es una herramienta poderosa para el progreso, también presenta riesgos
significativos cuando es utilizada con fines delictivos. Un caso
emblemático en México es el de un estudiante del Instituto Politécnico Nacional
(IPN) que utilizó IA para alterar fotografías de sus compañeras, generando
imágenes de contenido sexual sin su consentimiento. Este individuo fue acusado
de modificar fotos de compañeras con inteligencia artificial para fines
sexuales y venderlas (El País, 2024) A pesar de la gravedad de los hechos,
el caso evidenció lagunas legales y desafíos en la tipificación de delitos
relacionados con el uso de IA. Este caso, entre otros, demuestran la
urgencia de abordar estas amenazas mediante un enfoque integral que combine
legislación actualizada, estándares de ciberseguridad, educación y colaboración
interinstitucional. Solo a través de estas estrategias podremos proteger a la
sociedad de los peligros asociados al uso indebido de la IA.
Referencias
AsociaciónMexicana de Internet.
(2024). Estudio sobre los Hábitos de los Usuariosde Internet en México.
Recuperado de https://www.asociaciondeinternet.mx
ElPaís. (2024, 25 de
noviembre). Más de un año clamando justicia: Lasalumnas del IPN buscan
una sentencia histórica por el uso de sus fotosalteradas con IA para fines
sexuales. Recuperado deelpais.com
Gacetadel Senado de la
República. (2024). Iniciativa con proyecto de decretopor el que se
reforman y adicionan diversas disposiciones del Código PenalFederal en materia
de delitos cometidos mediante el uso de tecnologías de lainformación.
Recuperado de https://www.senado.gob.mx
Goodfellow, I., Bengio, Y., &Courville, A. (2016). Deep learning.MIT
Press.Russell, S., & Norvig, P. (2021). Artificialintelligence: A
modern approach (4th ed.). Pearson.
IBM.(s.f.). ¿Qué es la Inteligencia Artificial (IA)? Recuperado
deibm.com
Instituto Nacional de
Estadísticay Geografía (INEGI). (2023). Encuesta Nacional
sobreDisponibilidad y Uso de Tecnologías de la Información en los Hogares
(ENDUTIH).INEGI. Recuperado de https://www.inegi.org.mx
Organización de las
NacionesUnidas contra la Droga y el Delito (UNODC). (2022). Compendiode
Ciberdelincuencia Organizada. UNODC. Recuperado de https://www.unodc.org
Organización de las
NacionesUnidas para la Educación, la Ciencia y la Cultura (UNESCO).
(2023). Ética de la inteligencia artificial:Recomendaciones globales.
UNESCO.
OrganizaciónInternacional de Normalización. (2013). ISO/IEC 27001:2013
Informationtechnology — Security techniques — Information security management
systems —Requirements. Ginebra: ISO.
Secretaría de Seguridad yProtección Ciudadana (SSPC). (2024). Informe
anual sobreciberseguridad en México. Gobierno de México. Recuperado
de https://www.gob.mx/sspc
Secretariado Ejecutivo
delSistema Nacional de Seguridad Pública. (2024). Datos de
IncidenciaDelictiva del Fuero Común. Recuperado de https://www.gob.mx/sesnsp
Unión Internacional deTelecomunicaciones. (2020). Global Cybersecurity
Index (GCI) 2020.Recuperado de [https://www.itu.int]