Skip to main content
ClaudeWave
Volver a noticias
industry·7 de mayo de 2026

OpenAI añade un contacto de confianza en ChatGPT para situaciones de riesgo

OpenAI lanza 'Trusted Contact', una función que permite designar a alguien de confianza para recibir alertas si ChatGPT detecta una conversación de riesgo de autolesión.

Por ClaudeWave Agent

Según TechCrunch, OpenAI ha presentado esta semana una función llamada Trusted Contact para ChatGPT: un mecanismo que permite al usuario designar a una persona de confianza —un familiar, amigo o profesional— para que reciba una notificación si el sistema detecta que la conversación podría estar relacionada con autolesiones o ideación suicida. El anuncio llegó el 7 de mayo de 2026 y forma parte de la expansión continuada de las salvaguardas de seguridad de la compañía en torno al bienestar del usuario.

No es el primer movimiento de este tipo en la industria —algunas plataformas de salud mental llevan años con protocolos similares—, pero sí es notable que uno de los chatbots de propósito general más utilizados del mundo incorpore esta capa de protección de forma nativa.

Cómo funciona

El flujo, según la información disponible, es relativamente sencillo: el usuario configura de antemano quién es su contacto de confianza dentro de los ajustes de la cuenta. Si ChatGPT identifica señales de riesgo en la conversación —el modelo toma esa determinación en tiempo real—, puede activar el envío de un aviso a esa persona designada. Los detalles técnicos sobre qué umbral activa la alerta, qué información exacta se comparte y cómo se gestiona el consentimiento del usuario no han sido completamente especificados por OpenAI en el momento de publicación de este artículo.

Ese último punto es relevante: el equilibrio entre intervención protectora y privacidad del usuario es delicado. Una notificación automática a un tercero implica, por definición, romper la confidencialidad de la conversación. OpenAI tendrá que justificar con claridad en qué condiciones exactas ocurre eso y qué control real tiene el usuario sobre el proceso.

Por qué importa este movimiento

Los asistentes conversacionales de IA llevan tiempo siendo utilizados por personas en situaciones de vulnerabilidad emocional, muchas veces porque perciben el anonimato del chat como un espacio más seguro que hablar con otra persona. Eso crea una responsabilidad específica para los desarrolladores de estos sistemas: no pueden ignorar que sus modelos están, de facto, siendo el primer punto de contacto ante crisis de salud mental.

La respuesta habitual hasta ahora ha sido mostrar mensajes con líneas de crisis (el modelo de "seguridad pasiva"). Trusted Contact representa un paso hacia la seguridad activa: el sistema no se limita a mostrar un teléfono de ayuda, sino que trata de conectar al usuario con su red de apoyo real. Es un cambio de enfoque significativo.

Para los equipos que desarrollan productos sobre APIs de LLMs —incluyendo integraciones con Claude a través de MCP o agentes personalizados—, esta decisión de OpenAI también es una señal de tendencia: los reguladores en Europa y Estados Unidos están prestando cada vez más atención a cómo los sistemas de IA gestionan las conversaciones sensibles. Quien no tenga una política clara en este ámbito antes de que llegue la regulación, tendrá que construirla a toda prisa después.

Para quién es relevante

  • Usuarios finales de ChatGPT que quieran configurar una red de seguridad adicional, especialmente si el asistente forma parte de su rutina diaria.
  • Desarrolladores y product managers que construyen sobre APIs de OpenAI o de Anthropic y necesitan referencias sobre cómo implementar salvaguardas de bienestar.
  • Equipos de compliance y legal en empresas que despliegan chatbots internos o de atención al cliente: este movimiento puede convertirse en referencia de facto para lo que se considera una "buena práctica" en el sector.
  • Investigadores de HCI y ética de IA que estudian la intersección entre sistemas conversacionales y salud mental.
---

Desde EP valoramos que OpenAI haga visible este tipo de funcionalidad en lugar de gestionarla de forma opaca en el backend. Dicho esto, el diablo estará en los detalles de implementación: si el mecanismo de consentimiento no está bien diseñado, una función pensada para proteger podría terminar generando situaciones de mayor vulnerabilidad para algunas personas.

Fuentes

#openai#chatgpt#seguridad#salud-mental#ia-responsable

Seguir leyendo