Urgen regulaciones más estrictas para los deepfakes: Expertos, incluso el pionero de IA, llaman a la acción
Hoy en día, sabemos que especialistas en Inteligencia Artificial (IA), líderes de la industria, e incluso el pionero en tecnología, Yoshua Bengio, firmaron una carta abierta solicitando mayor regulación en torno a la creación de deepfakes. Entre las muchas razones, señalaron posibles riesgos para la sociedad. Para proporcionar un breve contexto, los deepfakes permiten reemplazar rostros de personas en imágenes y videos, incluso cambiando sus voces para lograr el máximo realismo, gracias a los avances tecnológicos actuales.
Dichos avances en tecnología han hecho que estos contenidos sean cada vez más difíciles de distinguir de aquellos creados por humanos. Por esta razón, se redactó una carta abierta titulada “Interrupción de la cadena de suministro de deepfakes”, donde se ofrecen recomendaciones sobre cómo regular estos materiales. La carta propone penalizar desde la creación de deepfakes explícitos con menores de edad, hasta sanciones penales para quienes, conscientemente, creen o difundan deepfakes dañinos. También demanda a las empresas de IA que eviten que sus productos generen deepfakes perjudiciales.
Se busca regular los deepfakes, ya que se utilizan para fraude, desinformación e imágenes sexuales. La inteligencia artificial ha avanzado rápidamente en poco tiempo en todos los aspectos y, en consecuencia, los deepfakes han seguido el mismo camino. Más de 400 personas de diversos sectores firmaron la carta, incluyendo a Andy Weber, exsubsecretario de Defensa de EE.UU.; Joy Buolamwini, fundadora de la Liga de la Justicia Algorítmica; dos expresidentes de Estonia; investigadores de Google DeepMind y un investigador de OpenAI.
El grupo de expertos señaló en la carta que “los deepfakes están comúnmente asociados con imágenes sexuales, fraudes o desinformación política. Dado que la IA facilita la creación de deepfakes, se requieren medidas de protección”. La carta fue redactada por Andrew Critch, investigador de IA de la Universidad de Berkeley.
Los reguladores siempre han buscado que la IA no cause daño a la sociedad, priorizando esto desde que OpenAI lanzó ChatGPT a fines de 2022. La viralidad y saturación de los servidores condujo a una carrera entre compañías para ofrecer servicios de IA. En menos de un año y medio, hemos pasado de un ChatGPT incipiente a OpenAI Sora, una IA anunciada recientemente capaz de generar videos a partir de texto escrito.
Los deepfakes representan una amenaza creciente para la sociedad, y los gobiernos deben imponer regulaciones en toda la cadena de suministro para frenar su proliferación. Las leyes deben:
– Tipificar como delito la pornografía infantil deepfake, incluso con niños ficticios.
– Establecer sanciones penales para quienes, conscientemente, creen o difundan deepfakes dañinos.
– Exigir a los desarrolladores y distribuidores de software que prevengan la creación de deepfakes perjudiciales y responsabilizarlos si sus medidas son fácilmente evitables.
Si se aplican de manera adecuada, estas leyes podrían promover empresas socialmente responsables sin ser excesivamente gravosas.
El artículo original, “Expertos, y hasta el pionero de la IA, insta a una mayor regulación de los deepfakes”, fue publicado en El Chapuzas Informático.
Contact Comprar Magazine.
Consultas al por mayor solamente.
Email: eblast@comprarmag.com
Tel: | Whatsapp:
Leave a Reply
Want to join the discussion?Feel free to contribute!