Un deepfake, generado por la Inteligencia Artificial (IA), es un video, imagen o un audio, imitando apariencias y sonido.
Son susceptibles de engañar a personas mediante algoritmos. Uno de estos informó recientemente, que había estallado una bomba cerca del Pentágono y armó un alboroto que conmocionó al mercado.
Afortunadamente, las autoridades estadounidenses inundaron rápidamente las redes sociales con declaraciones que el video era falso, y que «era simplemente una imagen generada por IA». Los mercados se recuperaron.
Ya hay en prospecto, una iniciativa conjunta de Estados Unidos y el Reino Unido, para abordar los riesgos de la IA y se espera que la UE también entre al ruedo.
Para la abogada Tello en el Blog El Montonero, desde noviembre del 2022, cuando se presentó el ChatGPT, se ha inaugurado la era de los chatbots y miles de expertos se han pronunciado, unos más importantes que otros. Y todos tienen algo que decir, advertir, anunciar, recomendar.
El denominador común es que la investigación y los desarrollos de la IA se pausen, se observen, se regulen. Hay mucho de incertidumbre, hay pánico y en la otra orilla optimismo.
El inicial pedido de mil expertos para su estricta regulación, hoy tiene más de 30,000 firmas que claman para que se detenga la IA que sigue corriendo a velocidad.
Al decir del analista Gillian Tett, también cientos de científicos emitieron una carta conjunta advirtiendo que «mitigar el riesgo de extinción de la IA debería ser una prioridad global junto con otros riesgos a escala social como las pandemias y la guerra nuclear».
Geoff Hinton, un académico y ex empleado de Google visto como uno de los «padrinos de la IA», piensan que el peligro más inmediato del que deberíamos preocuparnos no es que las máquinas se vuelvan locas, sino que los humanos las usen mal para el crimen, la piratería y la desinformación.
Ello causa preocupación en Washington DC, vale decir, que los deepfakes envenenen la carrera electoral del 2024.
Hasta ahora se han utilizado principalmente para estafas de criptomonedas, pero su avance es espeluznante. Microsoft, Google y Open AI, han indicado a la Casa Blanca, que cooperarían con ideas de licencias.
Es casi seguro que sus usuarios corporativos también se alinearían. Sin embargo, a delincuentes corporativos y grupos criminales, no es nada fácil de controlar. Es importante el “Caveat Emptor” , el cuidado de parte del comprador.
Ver el post: https://www.ft.com/content/7b352945-9295-42f5-a5d1-a01edf48ba51