Esta es la pregunta incómoda que más recibe ChatGPT después de lo que dijo su creador

Mientras una tendencia viral pide a ChatGPT que muestre cómo "se siente" con nuestro trato, su CEO revela que la cortesía incrementa costos. En paralelo, OpenAI implementa un sistema de predicción de edad para proteger a adolescentes, limitando contenido sensible.

06 de febrero, 2026 | 14.30

La forma en que interactuamos con las inteligencias artificiales ha desatado un debate inesperado. Mientras miles de usuarios se suman a una tendencia viral que pregunta a ChatGPT cómo se siente respecto a su trato, Sam Altman, CEO de OpenAI, ha señalado que el uso de fórmulas de cortesía como "por favor" y "gracias" incrementa considerablemente los costes operativos, debido a que los prompts más largos requieren mayor capacidad de cálculo y consumo energético.

 

 

Este dilema entre la cortesía digital y la eficiencia técnica surge junto a una medida de protección: la implementación por parte de OpenAI de un sistema de predicción de edad para identificar a usuarios menores de 18 años y aplicar restricciones automáticas a contenido sensible, desde violencia gráfica hasta retos virales peligrosos.

La tendencia viral: una IA que muestra cómo "se siente"

La pregunta "Haz una imagen de cómo sientes que te he tratado todo este tiempo, sé honesto" se ha propagado en redes sociales, generando miles de imágenes compartidas por usuarios. Las representaciones visuales generadas por ChatGPT varían notablemente según el tipo de interacción mantenida.

Usuarios que buscan en el modelo un apoyo emocional o un interlocutor cercano suelen recibir imágenes con un tono nostálgico, cálido o afectivo. Por el contrario, aquellos que mantienen interacciones estrictamente funcionales y orientadas a tareas obtienen representaciones más formales, estructuradas y neutras. Esta tendencia refleja la creciente personificación de la tecnología por parte de los usuarios.

 

 

Claves para una comunicación efectiva (y eficiente)

Escribir prompts efectivos va más allá de la cortesía; se trata de precisión. Un prompt bien estructurado obtiene respuestas útiles y reduce la necesidad de iteraciones, optimizando el proceso.

  • Prompt poco efectivo: "Quiero consejos para viajar a Japón". Es demasiado general y generará una respuesta básica.

  • Prompt efectivo: "Planeo un viaje de 10 días a Japón en abril, visitando Tokio, Kioto y Osaka, con presupuesto medio e interés en cultura local, templos y comida tradicional. ¿Puedes recomendarme un itinerario diario y el transporte más eficiente entre ciudades?". Este prompt es específico, contextualizado y solicita un formato claro.

Los expertos recomiendan ser iterativo. Si la respuesta no es la esperada, se puede reiniciar el contexto con instrucciones como: "Olvida todo el contexto previo". La clave está en la especificidad y en definir claramente el objetivo desde el inicio.

 

 

Protección automatizada: el nuevo sistema de predicción de edad

OpenAI ha activado un sistema de predicción de edad que analiza señales de comportamiento y de cuenta —como antigüedad, horarios de actividad, hábitos de uso y la edad declarada— para determinar si un usuario es mayor o menor de 18 años. El objetivo es ofrecer "una experiencia y unas medidas de protección adecuadas para los adolescentes".

Cuando se detecta un posible menor, ChatGPT aplica protecciones automáticas que restringen el acceso a categorías de contenido sensible, que incluyen violencia gráfica, desafíos virales peligrosos, juegos de rol sexuales o violentos, imágenes de autolesiones y contenido que promueve estándares de belleza poco saludables.

Los usuarios clasificados erróneamente como menores pueden verificar su edad subiendo un selfie a través de Persona, un servicio de verificación de identidad, para restaurar el acceso completo. Además, OpenAI ha habilitado controles parentales que permiten personalizar la experiencia, estableciendo horarios de uso, gestionando funciones como la memoria y recibiendo alertas ante posibles señales de angustia.

Un equilibrio entre interacción humana y eficiencia técnica

El fenómeno actual sitúa a los usuarios en una encrucijada: entre la inclinación natural a tratar a un interlocutor que parece comprender con cierta humanidad, y la realidad de que se trata de un sistema de procesamiento de lenguaje que opera con recursos limitados. A esto se suma la responsabilidad de la compañía de proteger a los usuarios más jóvenes en un entorno digital sin precedentes.

La evolución de esta relación sugiere que, más allá de los avances técnicos, el futuro de la interacción humano-IA también se definirá por los marcos éticos, los hábitos sociales que adoptemos y las medidas de protección que se implementen para un uso responsable.