OpenAI anunció que ChatGPT dejará de brindar asesoramiento médico, legal y financiero personalizado

Sociedad

OpenAI modificó las políticas de uso del chatbot de inteligencia artificial con el fin de garantizar la seguridad de los usuarios.

OpenAI modificó recientemente las políticas de uso de ChatGPT, su chatbot de inteligencia artificial, el cual ya no ofrecerá asesoramiento personalizado que requiera habilitación profesional, como lo es en el caso de temas jurídicos, médicos o financieros.

La actualización se realizó el pasado 29 de octubre y presenta cambios significantes en las políticas de uso respecto a la seguridad de los usuarios y la ética de la utilización de la inteligencia artificial para determinadas temáticas.

"No permitimos que se utilice la aplicación (...) para interferir con la capacidad de acceder a servicios críticos, incluido cualquier caso de uso para la automatización de decisiones de alto riesgo en áreas sensibles sin revisión humana, es decir, servicios gubernamentales, legales, médicos y esenciales", se lee ahora en el apartado de términos de uso.

openIA

Las modificaciones incluyeron también un párrafo aparte para “usos médicos” de ChatGPT y se aclara: “Nuestros servicios no están destinados al diagnóstico ni al tratamiento de ninguna afección médica. Usted es responsable de cumplir con las leyes aplicables para cualquier uso de nuestros servicios en un contexto médico o sanitario”.

El propio chatbot de inteligencia artificial indica que no dejará de dar información o explicaciones sobre temas médicos, legales o financieros, pero sí habrá límites sobre qué tipo de ayuda puede ofrecer en esas áreas. Es decir, podrá, por ejemplo, explicar qué es la presión arterial alta, cómo funciona un contrato de alquiler, o qué significa una tasa de interés variable. Lo que no hará es reemplazar la opinión o diagnóstico de un médico, abogado o contador. Tampoco podrá indicarle al usuario qué medicamento tomar, qué decisión legal firmar o en qué invertir el dinero, dado que eso se considera asesoramiento profesional personalizado, y siempre requiere un especialista humano.

ChatGPT.jpg

Con el fin de garantizar la seguridad de los usuarios, ChatGPT enfatiza que sus servicios no podrán ser utilizados para “prestación de asesoramiento personalizado que requiera habilitación profesional, como asesoramiento jurídico o médico, sin la intervención adecuada de un profesional acreditado”.

“Las personas deben poder tomar decisiones sobre sus vidas y sus comunidades. Por tanto, no permitimos usar nuestros servicios para manipular o engañar a las personas, interferir en el ejercicio de sus derechos humanos, aprovecharse de sus vulnerabilidades o interferir en su capacidad para recibir educación o acceder a servicios esenciales”, se aclara en las políticas de uso de ChatGPT-

En ese sentido, se especifica que el chatbot de inteligencia artificial no podrá utilizase para “automatización de decisiones de alto riesgo en ámbitos sensibles sin revisión humana” como temas de infraestructura crítica, educación, vivienda, empleo, actividades financieras y crédito, seguros, ámbito jurídico, sanidad, servicios públicos esenciales, componentes de seguridad de productos. seguridad nacional, inmigración y aplicación de la ley.

Embed

Dejá tu comentario