Los Riesgos de las IA Generativas

Humai
5 min readAug 29, 2023

Por Yamil Saiegh

Desde hace décadas, diversos expertos vienen planteado una serie de riesgos asociados a la inteligencia artificial (IA), que van desde la amenaza de reemplazo laboral―como lo que está pasando en Hollywood con el deepfake― hasta el hipotético escenario de extinción tanto para la humanidad como para otras especies. ¿Son estas alarmas una preocupación que debamos tomar seriamente? ¿Cómo podemos explorar el riesgo real asociado al desarrollo de este tipo de tecnologías?

Para entender estos riesgos, examinemos los argumentos y las evidencias relacionadas con el creciente peligro asociado al acceso y el uso del código abierto en las IA generativas ―aquellas capaces de crear contenido original a demanda siguiendo instrucciones específicas escritas conocidas como “prompts”. Estas IA son capaces de generar una amplia variedad de contenido, tanto en su propio estilo como imitando estilos humanos particulares. En este sentido, encontramos diferentes tipos de IA generativas de:

  • Textos: Ejemplos incluyen ChatGPT de OpenAI, Bard de Google, Llama 2 de Meta, entre otros.
  • Imágenes: Plataformas como Stable Diffusion de Runway y LMU Múnich, Midjourney de Midjourney, DALL-E de OpenAI, entre otros.
  • Voces humanas: Tecnologías como VALL-E de Microsoft, WaveNet de DeepMind, entre otros.

Riesgos asociados al acceso abierto

Algunas de estas IA están demostrando ser peligrosas debido a su disponibilidad pública, ya que cualquier persona con acceso a Internet puede utilizarlas (GPT-4 además requiere un pago mensual de 20 dólares). Dentro de esta dimensión, se plantean los siguientes peligros:

  • Las herramientas para la generación de imágenes pueden ser empleadas para la falsificación de identidades o pruebas judiciales, pudiendo incriminar a inocentes y eximir a culpables. Durante el 2023, muchas personas creyeron que las imágenes del Papa Francisco vistiendo un abrigo blanco de Balenciaga eran auténticas, cuando en realidad habían sido creadas rápidamente por una sola persona utilizando Midjourney.
  • Las tecnologías de generación de voces pueden ser usadas para llevar a cabo estafas telefónicas mediante la suplantación de identidad. Ya se han dado casos en los que se engañó a una madre haciéndole creer que su hija había sido secuestrada, y a un CEO de una empresa se le robó decenas de miles de dólares.
  • Las IA de generación de textos podrían potencialmente generar información que alimente sesgos ideológicos, facilite la piratería informática, o contribuya a la creación de drogas y armas de destrucción masiva. En un estudio reciente, se demostró que personas sin formación científica podían utilizar modelos de lenguaje para idear posibles patógenos pandémicos. Aunque GPT-4 cuenta con protecciones de seguridad basadas en refuerzo por retroalimentación humana (RLHF), y se ha sometido a exhaustivas pruebas por parte de 50 expertos y académicos para identificar vulnerabilidades simulando ataques (equipo rojo), aún no es infalible. Lo mismo se aplica a Claude v1.3 de Anthropic. Sigue siendo posible usar maliciosamente a los grandes modelos de lenguaje, consiguiendo que proporcionen información perjudicial (jailbreaking). Por ejemplo, solicitándoles que respondan en el rol de un guionista de cine.

Riesgos asociados al código abierto

Recientemente, algunas herramientas como Stable Diffusion han sido liberadas como código abierto. Esto permite que sean mejoradas, adaptadas con cualquier tipo de datos y compartidas libremente sin restricciones.

Max Tegmark, cosmólogo del MIT y cofundador del Future of Life Institute; Connor Leahy, programador que realizó ingeniería inversa del modelo GPT-2; y Wendy Hal, profesora de ciencias de la computación en la Universidad de Southampton, coinciden en que las IA no deberían ser de código abierto, de la misma manera que la tecnología de armas nucleares no lo es. Aunque esta comparación podría parecer exagerada, es una opinión respaldada por varios expertos de renombre en la carta abierta publicada este año por el Center for AI Safety, entre ellos Geoffrey Hinton, Yoshua Bengio, Demis Hassabis, Sam Altman, Ilya Sutskever, Stuart Russell, Peter Norvig, Ian Goodfellow, entre otros. Para ellos, mitigar el riesgo existencial de la inteligencia artificial debe ser una prioridad mundial, al igual que la prevención de guerras nucleares.

Subestimando el peligro

Meta, la compañía matriz de Facebook, Instagram y WhatsApp, recientemente liberó el código de su gran modelo de lenguaje, Llama 2. Mark Zuckerberg, fundador, presidente y director ejecutivo de Meta, minimiza el riesgo de las IA al compararlas con la inteligencia colectiva de ciertas sociedades humanas. Por su parte, Yann LeCun, científico jefe de inteligencia artificial en Meta, desestima las preocupaciones sobre los riesgos de la IA, calificándolas de especulativas, oscurantistas, prematuras, exageradas, incluso ridículas, tildándolas de ciencia ficción y de una forma de culto apocalíptico. Dhruv Batra, director de investigación en IA de Facebook, llegó a equiparar estas preocupaciones con pseudociencias como la astrología y la alquimia.

Zuckerberg, LeCun y Nick Clegg, presidente de asuntos globales de Meta, sostienen que la inteligencia artificial debería ser de código abierto, centrando su enfoque en los posibles beneficios. Por otro lado, George Hotz, un popular hacker estadounidense, afirma que la única manera de lograr que la inteligencia artificial sea segura es que sea de código abierto. Según su perspectiva, así como no le agradan las armas, considera que la mejor defensa contra un individuo malintencionado con un arma es un individuo bienintencionado con una.

Max Tegmark sostiene que no enfrentamos amenazas como armas de destrucción masiva (por ejemplo, biológicas) con más armas de destrucción masiva. En cambio, aboga por la regulación, el control y/o la prohibición de tales amenazas, lo que debería aplicarse también a la inteligencia artificial. Además, Connor Leahy sugiere que los desarrolladores deberían ser considerados responsables por cualquier uso indebido de sus IA de código abierto, no solo los usuarios finales.

A medida que las IA generativas siguen evolucionando y su seguridad sigue siendo imperfecta, surge la cuestión de si debería permitirse su uso y modificación libre. Al considerar la responsabilidad de los científicos y desarrolladores en relación con las consecuencias potenciales de sus creaciones, es posible encontrar paralelismos en la historia, como en el caso de Robert Oppenheimer y el Proyecto Manhattan, donde también se debatió la responsabilidad por los resultados catastróficos. En última instancia, el dilema radica en equilibrar la innovación tecnológica con la seguridad y la ética, mientras buscamos soluciones efectivas para abordar los riesgos de las inteligencias artificiales generativas.

Las ideas presentadas en este artículo no necesariamente reflejan una posición compartida por todos los especialistas, tanto dentro como fuera de Humai. Son asuntos sobre los cuales aún queda mucho por debatir y aprender para construir el camino hacia una IA ética, humana y responsable.

Sobre el autor
Desde chico me atrajeron la matemática, la programación y el funcionamiento de las computadoras, lo cual, junto con mi curiosidad sobre el cerebro y las emociones, me encaminó hacia la Inteligencia Artificial y la Ciencia de Datos. Me considero autodidacta y un ferviente defensor del conocimiento libre, representado en plataformas como Wikipedia y Sci-hub. Con más de una década en la docencia, intento usar la ciencia para entender la realidad y transmitirla a través de relatos que estimulen la curiosidad.

--

--

Humai

Acercamos la Inteligencia Artificial a la sociedad para hacer más equitativo el acceso a la tecnología que está revolucionando al mundo. Conocenos humai.com.ar