Cuáles son las herramientas de IA más seguras para los chicos

Comparamos ChatGPT, Gemini y Meta. Todas tienen funciones de control parental, pero algunas son más simples y accesibles que otras. Una guía para proteger a los menores.

Cuáles son las herramientas de IA más seguras para los chicos

Todos los días trabajamos, preocupados y a conciencia, para conocer cuáles y cómo son las relaciones de nuestros hijos con su entorno, tratando de entender sus amistades, intereses, estadios emocionales y desafíos. Sin embargo, al igual que nosotros, los más chicos ya están habitando nuevos entornos digitales donde a las redes sociales y los videojuegos se sumaron chatbots como ChatGPT. Allí ya conversan, interactúan, le preguntan y sacan conclusiones. De hecho, según informes oficiales, más de la mitad de las chicas y chicos adolescentes en Argentina ya usa inteligencia artificial, y dos de cada tres lo hace con fines escolares.

Este fenómeno, en el que los jóvenes están desarrollando relaciones con las IA generativas, dialogando sobre su vida privada y consultando dudas que quizás no plantearían en su entorno humano, exige no solo una respuesta de los adultos, sino también un involucramiento activo de las empresas que desarrollan estas tecnologías. En este marco, cada compañía está trabajando los llamados “controles parentales”, una serie de configuraciones y filtros para proteger la experiencia de los más chicos con los asistentes de IA. ¿Pero en qué estadío está cada herramienta?

Control parental

OpenAI lanzó en septiembre de este año una serie de opciones de control parental que ya están disponibles para cualquier usuario de ChatGPT y en todo el mundo. Entre las empresas que están batallando por la hegemonía de los asistentes de IA, OpenAI es la única que cuenta con opciones concretas para que los adultos puedan controlar o acompañar la experiencia de interacción de sus hijos con sus productos.

La principal funcionalidad que tiene ChatGPT radica en permitir que un padre o tutor vincule su cuenta con la de su hijo adolescente y se inicia mediante una invitación de cualquiera de las partes. Esta iniciativa otorga a las familias los recursos necesarios para guiar el uso de la IA en el hogar y personalizar la configuración. Solo hay que entrar a las herramientas del asistente (en la web o en la aplicación) y en la lista de opciones estarán los controles parentales. Lo primero que tiene que hacer el adulto, es invitar, mediante un correo electrónico, al menor.

Una vez que las cuentas están vinculadas, la cuenta del adolescente recibe protecciones de contenido más robustas. Según la empresa, estas configuraciones buscan reducir la exposición de contenido gráfico, desafíos virales peligrosos, contenido sexual, violento o ideales de belleza extremos. Aún así aclara, que aunque estas protecciones están diseñadas a partir de investigaciones sobre el desarrollo adolescente, los padres deben ser quienes siempre tengan la opción de desactivar esta configuración si lo desean. Como todas las empresas, OpenAI recomienda a los adultos a acompañar la experiencia de interacción con sus hijos.

La aplicación corre ventaja, además, con dos configuraciones. En primer lugar, cuenta con un panel de control donde los padres pueden ajustar varias opciones como poder establecer “horas tranquilas” (tiempos específicos en los que ChatGPT no se puede usar), desactivar el modo de voz (eliminando la interacción por comandos de voz), desactivar la memoria (impidiendo que el chatbot use conversaciones anteriores para responder), eliminar la generación de imágenes y optar por no participar en el entrenamiento del modelo. La segunda, todavía no está disponible, pero anunció que próximamente implementará un sistema de notificación diseñado para alertar a los padres si los sistemas detectan signos de que el adolescente podría estar pensando en hacerse daño.

Google, por su parte, anunció en mayo de este año que planeaba poner su chatbot Gemini a disposición de niños menores de 13 años cuyas cuentas estuviesen administradas por sus padres. Sin embargo, no hubo un lanzamiento especial de este producto para los menores y lo que la compañía hizo fue vincular su IA con un servicio de supervisión que ya tiene la empresa para distintos productos. A diferencia de OpenAI, Google tiene un gran ecosistema de aplicaciones, por lo tanto, centraliza las opciones de control parental para que los usuarios configuren para sus hijos herramientas como Gmail, Youtube y Chrome. Esta herramienta se llama Family Link. Con ella, los padres pueden controlar el acceso a aplicaciones como Gemini, lo que incluye activarlo o desactivarlo. La compañía también aclara en su blog de productos que los padres deben guiar a sus hijos, ya que Gemini puede cometer errores, y deben ayudar a los niños a entender que el chatbot es una herramienta de IA y no una persona.

Gemini también incluye filtros de contenido adicionales que evitan que el chatbot afirme ser una persona, tenga emociones humanas o interprete el papel de un personaje dañino. Una protección crucial para los menores de 13 años es que Google no utilizará los datos de sus conversaciones para entrenar su IA, y el ajuste de “Guardar actividad” no está disponible para ellos. Esta opción está por defecto en Google, mientras que en ChatGPT es optativa.

Meta es la compañía que está más retratada en la implementación de controles parentales para sus herramientas de IA. Según los comunicados oficiales de la empresa que agrupa aplicaciones como Facebook, Instagram y Whatsapp, muchas de las funciones más avanzadas son anuncios que se esperan implementar a principios del 2026. Sin embargo, Meta ya incorpora algunas protecciones por defecto para los menores, diseñando las respuestas de IA basándose en calificaciones similares a las películas para menores de 13 años. Por ejemplo, los adolescentes sólo pueden interactuar con un grupo limitado de personajes de IA enfocados en temas apropiados para su edad, como educación, deportes y aficiones, excluyendo temas como el romance.

Herramientas de supervisión

Entre las configuraciones que Meta planea lanzar están las herramientas de supervisión para darles a los padres mayor visibilidad y control sobre las experiencias con la IA. Próximamente, podrían desactivar el acceso de sus hijos a chats con personajes de IA o bloquear perfiles específicos. Al igual que con ChatGPT, los adultos también podrían tener mayor visibilidad sobre el contenido que comparten sus hijos con los bots, al igual que podrían establecer límites de tiempo para el uso de las aplicaciones.

En síntesis, hoy ChatGPT es la aplicación de IA que ofrece controles más robustos y personalizables que ya están disponibles para adolescentes. Los padres, si quisieran, podrían hoy mismo configurar una experiencia más segura para sus hijos. Gemini, en cambio, está protegiendo dicha experiencia a través de una aplicación supervisora que es Family Link y se enfoca en restricciones de contenido. Lo interesante de esta IA es que destaca que no utilizará datos de los menores para el entrenamiento de sus modelos, algo crucial para la privacidad de los más chicos. Finalmente, Meta está en una fase inicial, con protecciones mínimas para menores de 13 años y con anuncios que habrá que esperar hasta el año que viene.

Más allá de las configuraciones técnicas, la protección más sólida será el acompañamiento de los padres en las interacciones de los más chicos con la tecnología. Todas las empresas aclaran que sus filtros pueden fallar y que no hay personas reales en dichas barreras. Allí radica el principal problema técnico, pero también es un llamado de atención para que no nos confiemos de las supervisiones automáticas. Más allá del control, lo que requieren los más jóvenes es la experiencia de las personas en las que confían, que no deben ser tecnológicas, sino simplemente, aquellos saberes que pueden protegerlos en cualquier tipo de entorno.

Comentarios