El término deepfake se utiliza para designar contenidos audiovisuales (imágenes, audios o videos) que han sido manipulados o generados mediante herramientas basadas en inteligencia artificial (IA), con el fin de inducir al engaño, suplantar identidades o atentar contra el honor de las personas al situarlas en situaciones comprometedoras. Esta tecnología permite, entre otras posibilidades, reemplazar rostros, clonar voces o generar escenarios falsos, lo que la convierte en una herramienta susceptible de usos ilícitos.
Este tipo de falsificaciones digitales son más comunes de lo que se suele percibir y ha logrado comprometer la seguridad nacional de otros países. En Estados Unidos, por ejemplo, ha encendido las alarmas frente a múltiples ataques orquestados por bandas criminales que suplantaron la identidad de funcionarios de la administración Trump.
De manera similar, empresas de distintos sectores han sido víctimas de estos ciberataques, en los cuales logran engañar a directivos y empleados al mediante videollamadas o comunicaciones por voz falsas. Esta situación ha sido descrita por Brian Long, CEO de Adaptive Security, de la siguiente manera: “Ya no se trata de hackear sistemas, se trata de hackear la confianza”.
Frente a este complejo escenario, se destaca una reciente novedad regulatoria que se posiciona como la primera ley en Colombia que trata exclusivamente sobre IA. Se trata de la Ley 2502 de 2025, por medio de la cual se modifica y establece un agravante al artículo 296 de la Ley 599 de 2000 (Código Penal Colombiano). En ella, se definió por primera vez términos como deepfake, identidad, imagen e individualidad digital (Artículo 2)
La modificación del tipo penal introduce un agravante al delito de falsedad personal cuando este sea cometido mediante herramientas de IA. Con esto, se aumentaría la pena hasta en una tercera parte cuando se utilicen estas tecnologías para la creación de videos, imágenes o audios falsos destinados a suplantar la identidad de una persona. Esto representa un fundamental avance en el control de delitos digitales (Artículo 3).
De igual modo, la ley establece directrices para la formulación de políticas públicas en materia de prevención y control del uso indebido de la IA en la suplantación de identidad. Dicha política pública estará dirigida a la promoción de un marco ético, colaboración interseccional, capacitación y desarrollo tecnologías que permitan combatir este tipo de delitos (Artículo 4).
No obstante, surgen diversas interrogantes entorno a la capacidad de esta política pública frente a los vertiginosos avances tecnológicos que facilitan la generación de deepfakes. Debido a lo anterior, es necesaria la formulación de competencias técnicas que permitan el control de estas conductas, de modo que puedan detectarse con mayor facilidad este tipo de manipulaciones.
Para fortalecer la investigación de casos vinculados al uso de IA para cometer el delito de falsedad personal, la ley previó la creación de registros que garanticen la trazabilidad de la información sobre metodologías utilizadas, su impacto y las medidas judiciales aplicadas en estos casos. Sin embargo, su acceso será de uso exclusivo para entidades que ejerzan funciones de policía judicial, entidades de la rama judicial y de seguridad (Artículo 5).
Si bien, la modificación comenzará a regir a partir de un año después de su sanción y promulgación, constituye un avance significativo en la intersección de ciberdelitos cometidos mediante herramientas como la IA (Artículo 6).
En definitiva, la Ley 2502 de 2025 es una respuesta clave a necesidad contemporáneas, al tiempo que refuerza la protección de la identidad e individualidad digital como un complemento de la identidad física. En estos momentos, el panorama se mantiene expectante y fija la mirada hacia los próximos desarrollos regulatorios de la IA en demás aspectos de la vida social.