La actualización de OpenAI a las políticas de ChatGPT refleja una tendencia en la regulación ética en el uso de la inteligencia artificial, especialmente en campos donde los errores puede tener consecuencias graves.
Nancy Valenzuela / NORO
Con el fin de fortalecer la seguridad y la responsabilidad del uso de Inteligencia Artificial entre los usuarios, OpenAI modificó las políticas de uso de ChatGPT, donde señala que el chatbot ya no podrá brindar asesoría profesional en áreas médicas, legales o financieras.
Esta modificación busca reducir el riesgo de sustituir el criterio de especialistas en estas áreas y proteger a los usuarios de tomar decisiones de alto riesgo, así como evitar el uso indebido de la herramienta en situaciones que requieren supervisión humana y profesional.
Te podría interesar: ¿Sufres por el mal de amores? ChatGPT podría ayudarte a mejorar tu situación sentimental

ChatGPT limitará la asesoría profesional personalizada
Fue el pasado 29 de octubre cuando OpenAI actualizó sus políticas de uso, en donde destaca que ChatGPT ya no podrá utilizarse para “manipular” ni “engañar” a las personas, ni interferir en sus derechos humanos o vulnerabilidades personales. Por ello, la compañía de Inteligencia Artificial restringió el uso del sistema en áreas sensibles como infraestructura clínica, servicios legales, créditos, seguros, migración, seguridad nacional y aplicación de la ley.
La medida se enmarca en la categoría de “automatización de decisiones de alto riesgo”, que impide que la inteligencia artificial tome decisiones críticas sin revisión humana. Esto significa que ChatGPT podrá seguir brindando información general y educativa, pero no ofrecerá diagnósticos médicos, asesorías legales o financieras personalizadas.

Por ejemplo, el chatbot puede explicar qué es la hipertensión o cómo funciona un contrato de arrendamiento, pero no podrá recomendar medicamentos ni redactar documentos jurídicos con validez legal.
OpenAI aclara que no se trata de una prohibición total
OpenAI aclaró que no es una nueva prohibición, sino de una actualización de reglas que ya existían, con un lenguaje más claro y restrictivo para proteger a los usuarios.
El sistema seguirá respondiendo preguntas generales, siempre acompañado de advertencias que recomienden acudir con un profesional certificado cuando se trate de temas delicados o de impacto personal. De esta manera, OpenAI busca evitar la desinformación y los posibles daños derivados de interpretaciones erróneas o decisiones críticas basadas en IA.

Con información de Récord, N+, Entrepreneur y La Crónica










