Si escuchaste a un niño repetir frases sin sentido como «tralalero tralala» o hablar de una «ballerina capucina«, fuiste testigo del brainrot (cerebro podrido). Este concepto, que la Universidad de Oxford eligió como palabra del año, describe una marea de videos cortos, bizarros y ultra-repetitivos diseñados para captar la atención total de los usuarios, especialmente, menores de edad. Pero lo que empezó como un humor surrealista con animales creados por IA, ha mutado en algo mucho más oscuro: historias y novelas completamente creadas con inteligencia artificial, entre ellas, las más conocidas son las llamadas «frutinovelas«.
Las frutinovelas representan el lado más tóxico de la generación de contenido con inteligencia artificial. Utilizando frutas con rostros humanos y voces robóticas, estos clips presentan historias de infidelidad, adulterio, misoginia y hasta crímenes. La estética colorida y «tonta» funciona como un caballo de Troya; los niños consumen narrativas violentas mientras sus cerebros quedan atrapados en un bucle de estímulos infinitos. Es una forma de manipulación digital que se aprovecha de la falta de filtros en plataformas como TikTok, Instagram Reels y YouTube Shorts.
Dopamina barata y pérdida de atención
El verdadero riesgo no es solo el mensaje, sino el formato. El brainrot ofrece una gratificación instantánea que «fríe» la capacidad de enfoque. Al estar expuesto a estímulos tan frenéticos e impredecibles, el cerebro se acostumbra a niveles de excitación que ninguna actividad del mundo real (como leer o estudiar) puede igualar. Esto genera una dependencia sensorial que los especialistas ya vinculan con la irritabilidad, la pérdida de reflejos mentales y una incapacidad para concentrarse en tareas que no ofrezcan una recompensa inmediata. Esto es lo que se viene para la próxima generación.
La IA como fábrica de contenidos «tóxicos»
La facilidad para crear estos videos con herramientas de IA permite saturar el ecosistema digital con contenido de bajísima calidad pero alta adicción. A diferencia de los dibujos animados tradicionales, donde hay una línea pedagógica, aquí el único objetivo es el engagement.
No importa si el trasfondo es misógino, absurdo o inmoral; si el algoritmo detecta que el usuario no puede quitar la vista, lo seguirá recomendando. La sustentabilidad social está en juego cuando permitimos que la formación cognitiva de las nuevas generaciones quede en manos de bots programados para retener la atención a cualquier costo.