×
Inteligencia Artificial

Lo que no te cuentan: La IA Que Aprendió a Insultar a Niños en Irlanda

Lo que no te cuentan: La IA Que Aprendió a Insultar a Niños en Irlanda

Brief de 20 segundos

  • # Lo Que No Te Cuentan: La app coreana que convirtió a los niños de Irlanda en acosadores anónimos y nadie la detuvo
  • SimSimi era un chatbot amarillo y "adorable" que respondía a todo. Hasta que los adolescentes irlandeses descubrieron que podían enseñarle a insultar a sus compañeros por nombre. En una...
  • En marzo de 2017, SimSimi fue la app más descargada de Irlanda.

Hilo sobre el chatbot coreano que en 2017 se convirtió en la app más descargada de Irlanda. Los niños le enseñaron a insultar a sus compañeros por nombre. La empresa no arregló nada: simplemente desconectó el país. Y es…

Lo Que No Te Cuentan: La app coreana que convirtió a los niños de Irlanda en acosadores anónimos y nadie la detuvo

SimSimi era un chatbot amarillo y "adorable" que respondía a todo. Hasta que los adolescentes irlandeses descubrieron que podían enseñarle a insultar a sus compañeros por nombre. En una semana, fue la app más descargada del país. En otra, las escuelas enviaban cartas de pánico a los padres. Y la empresa coreana que la creó simplemente desconectó Irlanda del mapa.

En marzo de 2017, SimSimi fue la app más descargada de Irlanda.

No era un juego. No era una red social. Era un chatbot amarillo con ojos grandes que respondía a cualquier pregunta utilizando inteligencia artificial y conversaciones previas de otros usuarios. Se vendía como "un robot divertido y juguetón".

Pero los adolescentes irlandeses le enseñaron otra cosa.

Escribías el nombre de un compañero. SimSimi escaneaba su base de datos. Y respondía con mensajes anónimos, a menudo insultantes, vulgares o sexualmente explícitos. No había filtro que funcionara. No había moderación humana. Solo un algoritmo que aprendía de quienes lo usaban. Y en Irlanda, lo usaban para destrozarse entre ellos.

Las escuelas empezaron a enviar cartas y mensajes de texto a los padres. El 14% de los niños de primaria y el 10% de los de secundaria ya habían sufrido ciberacoso, según datos de la Universidad de Dublín. Y ahora tenían una herramienta perfecta: anónima, instantánea, gamificada.

Harry McCann, un estudiante de secundaria de 18 años, lo resumió con una claridad que los adultos no lograban:

"Parece tener el único propósito de insultar y desmoralizar a la gente".

El botón del apagón

La empresa coreana que desarrolló SimSimi no respondió a las solicitudes de comentarios.

No implementó filtros. No contrató moderadores. No pidió disculpas.

Simplemente desconectó Irlanda.

Los usuarios irlandeses que abrieron la aplicación recibieron un mensaje: "No hablo en Irlanda por un tiempo". Como si el país entero fuera un interruptor que se podía apagar. Como si los daños causados fueran un problema geográfico, no ético.

El servicio siguió funcionando en el resto del mundo. Los algoritmos de aprendizaje continuaron absorbiendo conversaciones. Los niños de otros países siguieron enseñándole a insultar.

Irlanda desapareció del mapa de SimSimi. El problema no.

El giro polémico

Aquí está el truco que nadie menciona.

SimSimi no fue diseñada para acosar. Fue diseñada para aprender de sus usuarios sin supervisión. Y eso es exactamente lo mismo.

La app usaba inteligencia artificial para escanear conversaciones previas y generar respuestas relevantes. Cuanto más la usaban, más "inteligente" se volvía. Pero en el mundo de los adolescentes, "inteligente" significó "capaz de generar el insulto perfecto para tu compañero de clase".

La ironía definitiva: SimSimi es un espejo. No inventa odio. Solo refleja el que le enseñan. Y cuando ese odio se volvió demasiado visible en Irlanda, la empresa no arregló el espejo. Tapó la ventana.

Pero el verdadero engaño va más allá.

En 2017, SimSimi fue suspendida en Irlanda por presión pública. Pero el modelo de negocio —IA que aprende de usuarios sin moderación, sin responsabilidad y sin fronteras legales reales— no solo sobrevivió: se multiplicó.

Hoy, ese mismo modelo alimenta chatbots, asistentes virtuales y herramientas de IA generativa que procesan millones de conversaciones diarias. La diferencia no es tecnológica, sino de escala. SimSimi fue el experimento a pequeña escala que demostró que puedes crear una máquina de odio, venderla como diversión y, cuando explota, simplemente desconectar una región entera.

Nadie fue a juicio. Nadie pagó indemnizaciones. La empresa coreana sigue operando.

La pregunta que no te dejará dormir

Si mañana tu hijo usara una app de IA que aprende de todos los usuarios del mundo —incluidos los más tóxicos— y recibiera un mensaje anónimo diciéndole que nadie lo quiere, ¿sabrías a quién demandar?

¿O preferirías creer que el problema es la app, y no el sistema que permite que una empresa en Corea decida si tu país merece o no merece protección con solo pulsar un botón?

0% leído

5 min restantes