Especialistas en Evidencia Digital.

Análisis del Anteproyecto de Ley para Regular la Inteligencia Artificial en Venezuela

En días anteriores, ha circulado a través de diversos medios el Anteproyecto de Ley de Inteligencia Artificial (IA) de Venezuela, fechado 13 de noviembre 2024, en el cual se busca establecer un marco regulatorio para el desarrollo, uso y aplicación de esta tecnología, priorizando la protección de derechos humanos, la ética y la seguridad nacional. Si bien la propuesta refleja un avance significativo en la adaptación jurídica a los retos tecnológicos, presenta vacíos y desafíos que requieren una revisión crítica, especialmente en un contexto globalizado donde las IA trascienden fronteras y operan bajo modelos comerciales complejos.

El equipo del Grupo Lazarus y el Escritorio Jurídico Lazarus, Álvarez & Asociados, han hecho un análisis del anteproyecto, con miras a detectar las insuficiencias de la norma para las consideraciones correspondientes, dentro del debate sano que se genera ante este tipo de normativa. A continuación, parte de las observaciones: 

1. Ámbito de Aplicación

El anteproyecto de ley presenta ambigüedades en su alcance, generando incertidumbre sobre la regulación de herramientas de IA de libre acceso como ChatGPT y Deep Seek y otras que pueden abarcar parte de las limitaciones previstas en la ley. Si bien el artículo 2 establece su aplicación a «todas las personas en territorio nacional», la falta de estrategias para abordar proveedores extranjeros plantea dudas sobre si se requerirá a los usuarios venezolanos autolimitarse o si se exigirá el bloqueo de acceso desde Venezuela. Además, la ley podría generar un doble estándar tecnológico, ya que las empresas locales estarían sujetas a requisitos como registros de inscripción ante la Agencia Nacional de IA, mientras que los competidores globales podrían operar sin estas restricciones, lo que podría poner a las empresas locales en desventaja.

2. Norma de orden Público

El carácter de orden público de la ley está establecido en el Artículo 7. ¿Qué implica esto?

2.1) Obligatoriedad: Todos los ciudadanos, empresas e instituciones deben acatar lo que establece la ley y las normas que se creen para aplicarla.

2.2) Irrenunciabilidad: Nadie puede renunciar a sus obligaciones o derechos bajo esta ley.

2.3) Interés general: La norma busca proteger el interés de toda la sociedad, no solo de individuos o grupos particulares.

3. Propiedad Intelectual

A pesar de incluir la «propiedad intelectual» como principio rector, la ley carece de definiciones claras sobre los derechos de autoría en creaciones generadas por IA, generando incertidumbre sobre si la autoría recae en el humano o en el algoritmo. Por ejemplo, si una IA es diseñada como generativa y escribe un libro o diseña una patente, ¿quién es el titular? el anteproyecto venezolano no aclara esto.

La cuestión de la autoría en obras generadas por IA es un tema de intenso debate global. Mientras la Unión Europea mantiene una postura que reconoce exclusivamente la autoría humana, China ha marcado un precedente significativo. Un tribunal en Shenzhen Nanshan dictaminó que las creaciones de la IA pueden ser protegidas por derechos de autor, generando un contraste notable en el panorama legal internacional.

4. Aspectos Omitidos

a) Transparencia algorítmica

El artículo 23 exige transparencia en el funcionamiento de las IA y otorga la reserva legal al Estado para la revisión algorítmica, pero no establece auditorías independientes ni acceso público a códigos fuente. Sin esto, no es factible garantizar que los sistemas eviten sesgos discriminatorios o decisiones opacas.

b) Protección de datos personales

A pesar de mencionar el derecho a la protección de datos (artículo 29), el mismo no se alinea con estándares como el del Reglamento General de Protección de Datos (GDPR) de la Unión Europea que detalla cuestiones de derecho en el tratamiento de los datos personales, por ejemplo: los datos deben tratarse de manera legal, justa y transparente, solo pueden recogerse con fines específicos, explícitos y legítimos, deben recogerse los mínimamente necesarios y conservarse solo durante el tiempo necesario para los fines del tratamiento.

5. Equidad e inclusión, sesgos y discriminación 

En el Artículo 22 se identifica claramente uno de los mayores desafíos de la IA: los sesgos y la discriminación. Es importante reconocer el enfoque preventivo de la ley al exigir medidas de equidad e inclusión desde la fase de recolección de datos, con lo cual se busca prevenir la aparición de sesgos en lugar de corregirlos a posteriori y responsabiliza a los desarrolladores de IA de implementar estas medidas, lo cual es fundamental para garantizar la ética en el desarrollo de la tecnología. Sin embargo, no se especifica cómo se medirán o verificarán las medidas de equidad e inclusión. Esto podría generar ambigüedad y dificultades en la aplicación de la ley. ¿Cómo se define «equidad» e «inclusión» en el contexto de la IA? Se necesitarán directrices claras y detalladas. ¿Qué mecanismos de auditoría y supervisión se implementarán para garantizar el cumplimiento de estas medidas?

En cuanto a los sesgos pueden estar presentes en los datos de manera sutil e incluso inconsciente. ¿Cómo se abordarán estos sesgos ocultos? Por ejemplo, una empresa desarrolla un sistema de inteligencia artificial para transcribir automáticamente grabaciones de audio. Este sistema se entrena con una gran cantidad de datos de audio y texto. Sin embargo, resulta que la mayoría de los datos de entrenamiento provienen de grabaciones de hombres. ¿Qué podría suceder? Que el sistema pueda generar dificultades para reconocer y transcribir con precisión las voces de las mujeres, ya que ha sido entrenado principalmente con voces masculinas, lo que podría dar la impresión de que sus opiniones son más importantes. Es necesario asegurar a través de la ley que se realicen pruebas exhaustivas para identificar esos sesgos ocultos.

6. Promoción en la educación

Al incluir todos los niveles y modalidades del sistema educativo, se busca democratizar el acceso al conocimiento sobre IA y garantizar que todos los ciudadanos tengan la oportunidad de beneficiarse de esta tecnología.

Al respecto, el Artículo 33 establece un objetivo ambicioso y necesario para la educación en Venezuela. Sin embargo, su éxito dependerá de la capacidad del Estado para superar los desafíos de implementación y garantizar que la educación sobre IA sea de alta calidad, inclusiva y ética. Es desafiante conocer: ¿Cómo se incorporarán los contenidos de IA en los planes de estudio existentes? ¿Se crearán nuevas asignaturas o se integrarán en las ya existentes? ¿Cómo se capacitará a los docentes para que puedan enseñar sobre IA de manera efectiva? ¿Se contará con los recursos tecnológicos necesarios para la implementación de los contenidos sobre inteligencia artificial? En el transcurrir del tiempo se verá la implementación de este objetivo.

7. Clasificación de los riesgos

El Artículo 43 establece una clasificación de riesgos para los sistemas de Inteligencia Artificial, que va desde «Riesgo Inaceptable» hasta «Riesgo Bajo». Esta categorización permite una regulación proporcional, enfocando las medidas más estrictas en aquellos sistemas que representan un mayor peligro para la sociedad.

Los sistemas de «Riesgo Alto» son aquellos que pueden afectar la seguridad o los derechos de las personas debido a la falta de transparencia o a la manipulación de la identidad. También se incluyen aquí los sistemas que pueden generar segmentación o categorización discriminatoria de los usuarios. Esta categoría busca prevenir los riesgos asociados con la opacidad y la discriminación en la IA.

Los sistemas de «Riesgo Medio» y «Riesgo Bajo» representan amenazas menores. Los de riesgo medio pueden afectar negativamente los sistemas sociales, pero requieren medidas de mitigación para garantizar su uso seguro y ético. Los de riesgo bajo son soluciones simples con un margen de error y consecuencias bajos, y pueden utilizarse con restricciones mínimas.

Finalmente, los sistemas de «Riesgo Inaceptable» descritos en el artículo 45, son aquellos que manipulan o amenazan directamente la seguridad, la vida o los derechos de las personas, o que atentan contra la seguridad del Estado. Esta prohibición abarca un amplio espectro de aplicaciones, desde el reconocimiento biométrico y la vigilancia masiva hasta la toma de decisiones automatizada en ámbitos críticos como la justicia, el empleo y la educación. Al prohibir la segmentación y clasificación de personas basadas en patrones biométricos o reconocimiento emocional, el artículo busca proteger la dignidad humana y prevenir la creación de perfiles discriminatorios en esas áreas.

Es importante destacar la excepción prevista para los entes del Estado que hayan sido autorizados expresamente para realizar actividades con sistemas de inteligencia artificial de riesgo inaceptable. Esta excepción reconoce la necesidad de flexibilidad en situaciones de interés público o seguridad nacional, siempre y cuando exista una autorización previa y justificada, sin embargo, es una norma ambigua que podría justificar usos arbitrarios sin supervisión independiente.

8. Infracciones y Sanciones

El marco sancionatorio establecido en los artículos 49 al 55 de la ley se basa en la graduación de las infracciones según su gravedad, desde leves hasta graves. Esta estructura permite al ente regulador aplicar sanciones proporcionales al incumplimiento de las disposiciones legales, garantizando así el cumplimiento efectivo de la normativa.

Las infracciones leves, como la falta de suministro de información o el suministro incompleto, se centran en el incumplimiento de obligaciones formales. Las infracciones moderadas, como el suministro de información falsa o el incumplimiento de principios rectores en sistemas de riesgo medio, implican un mayor grado de negligencia o intencionalidad. Las infracciones graves, como el uso de sistemas de riesgo inaceptable o el incumplimiento de principios rectores en sistemas de alto riesgo, representan las violaciones más serias a la ley y conllevan las sanciones más severas.

9. Delitos

El Artículo 56 de la ley establece un marco penal específico para una variedad de delitos relacionados con el uso indebido de esta tecnología. Este artículo abarca desde la falsificación y manipulación de contenido multimedia hasta la amenaza a la seguridad nacional y la inducción al daño físico, lo que demuestra una amplia preocupación por los riesgos potenciales de la IA.

La criminalización de la manipulación de imágenes, videos y audios para dañar a terceros, así como la posesión y uso delictivo de información de sistemas de IA, refleja la necesidad de proteger la integridad personal y la seguridad de la información en todo el contexto digital. La diferenciación en las penas según el tipo de daño causado (patrimonial, personal, moral) y el destino de la información (nacional o extranjera) subraya la importancia de la proporcionalidad en la respuesta penal.

La inclusión de delitos como el uso de IA para dañar la institucionalidad democrática o la seguridad nacional, así como la inducción al daño físico, destaca la preocupación por los riesgos sistémicos y existenciales que plantea la IA. La penalización de estas conductas busca disuadir el uso de la IA para fines maliciosos y proteger los valores fundamentales de la sociedad.

Hacia una Regulación Integral

El Anteproyecto venezolano es un primer paso valioso, pero requiere precisiones para no quedar obsoleto ante la velocidad de la innovación tecnológica. Para posicionarse como referente en IA, Venezuela debe:

  1. Detallar mecanismos extraterritoriales mediante tratados internacionales.
  2. Clarificar la propiedad intelectual de creaciones generadas por IA algo no abordado suficientemente en el texto de la ley.
  3. Fortalecer la transparencia con auditorías obligatorias independientes y acceso a códigos fuente en casos de alto riesgo para garantizar el cumplimiento de la normativa y reducir los riesgos de sesgo y opacidad.

Venezuela tiene la oportunidad de liderar la regulación de IA en la región si aborda estos problemas con soluciones prácticas, evitando así caer en lo que podría convertirse en un marco legislativo obsoleto frente a la veloz evolución tecnológica.

Abg. Nuria Álvarez
Investigadora en Derecho Digital e Inteligencia Artificial
Marzo de 2025

Te Recomendamos

enero 13, 2023
Firma del Convenio Interinstitucional de Formación entre Fundaceate- UC y el Escritorio Jurídico Lazarus, Alvarez & Asociados, S.C
febrero 3, 2025
¿Te gustaría hablar en público con confianza, cautivar a tu audiencia y dejar una huella imborrable?
enero 24, 2025

¿Te sientes inseguro al hablar en público? . ¿Quieres que tus palabras tengan el poder de convencer y emocionar? . ¡Libera al orador que

noviembre 11, 2024
¿Sabías que puedes automatizar tus contratos y eliminar intermediarios?
× ¿Cómo puedo ayudarte?