Según Sam Altman, los agentes de inteligencia artificial alteran las conversaciones en Internet, al punto de volverlas falsas y poco confiables.

Las redes sociales cambiaron para siempre la manera en que nos comunicamos. Sin embargo, en los últimos meses, atraviesan una crisis de autenticidad. Entre cuentas falsas, respuestas automatizadas e interacciones generadas por inteligencia artificial, cada vez cuesta más saber si lo que leemos proviene de una persona real o de un sistema.

Así lo advirtió Sam Altman, director ejecutivo de OpenAI, la compañía creadora de ChatGPT, quien aseguró que la presencia de bots arruinó la experiencia humana en plataformas como Twitter o Reddit.

En un análisis que compartió en X, Altman reflexionó sobre cómo la proliferación de modelos de lenguaje y de cuentas administradas por agentes de IA altera las conversaciones en Internet, al punto de volverlas falsas y poco confiables.

Los agentes de inteligencia artificial alteran las conversaciones en Internet, al punto de volverlas falsas y poco confiables. (Imagen: GeminiAI)
Los agentes de inteligencia artificial alteran las conversaciones en Internet, al punto de volverlas falsas y poco confiables. (Imagen: GeminiAI)

El empresario puso como ejemplo lo que vivió en el subreddit r/ClaudeCodedonde encontró mensajes que comparaban a Codex, el sistema de programación de OpenAI, con la herramienta de Anthropic. Muchos usuarios decían haber dejado de usar Claude Code para pasarse a Codex, pero, según Altman, leer esas publicaciones fue una experiencia muy extraña y supuso que gran parte eran obra de bots, aunque admitió que la adopción de su producto viene creciendo con fuerza.

Cuando los humanos empiezan a escribir como máquinas

Más allá de ese caso puntual, Altman subrayó que la influencia de los modelos de lenguaje ya se filtró en nuestra manera de expresarnos online. Según él, muchos usuarios adoptaron los mismos giros y estructuras que suelen usar los LLM, lo que genera que incluso los mensajes auténticos suenen artificiales.

El CEO también apuntó contra la dinámica propia de las comunidades online: los grupos más activos y extremadamente conectados tienden a replicar comportamientos muy similares, con modas fugaces y conductas repetitivas. A eso se suma la presión de las redes para maximizar interacciones y monetización, que empuja a los creadores de contenido a buscar formas de atraer público, aunque no siempre se trate de interacciones genuinas.

Bots, astroturfing y la teoría del Internet muerto

Otro de los puntos que mencionó Altman es que OpenAI ya sufrió prácticas de astroturfing, nombre con el que se conoce a las campañas organizadas con cuentas falsas para simular apoyo espontáneo a un producto o empresa. Este tipo de operaciones, dijo, contribuye a vaciar de credibilidad los espacios de conversación online.

El ejecutivo incluso deslizó una referencia a la teoría de la Internet muerta, que sostiene que gran parte de los contenidos en la red ya no provienen de personas reales, sino de algoritmos y bots. “Parece que ahora hay muchas cuentas de Twitter administradas por LLM”, escribió.

La reflexión no deja de ser paradójica: Altman dirige la empresa que desarrolló una de las tecnologías más influyentes detrás de esos mismos bots que ahora critica. Sin embargo, su diagnóstico es claro: la línea entre interacciones humanas y automáticas se volvió borrosa.

“El efecto final es que, de alguna manera, Twitter y Reddit con IA se sienten muy falsos, de una forma diferente a lo que eran hace uno o dos años”, concluyó el creador de ChatGPT.

Leave a Comment