OpenAI nega boato de que ChatGPT deixou de dar conselhos jurídicos e médicos
Foto: Reprodução
Publicações nas redes sociais distorcem uma atualização das regras de uso da IA e fazem parecer que ela deixou de oferecer orientações sobre esses temas
Circula na internet a informação de que uma atualização do ChatGPT passou a impedir o robô de dar conselhos jurídicos e médicos.
Mas a afirmação é falsa, segundo Karan Singhal, chefe de IA em saúde da OpenAI, em post publicado na rede social X.
“O comportamento do modelo permanece inalterado”, escreveu Karan. “O ChatGPT nunca substituiu o aconselhamento profissional, mas continuará sendo um excelente recurso para ajudar as pessoas a compreenderem informações jurídicas e de saúde”, completou.
Veja também

Como a IA generativa está mudando a criação de jogos
Modelos de IA ainda confundem crença com fato, mostra estudo
A informação falsa afirma que, desde o mês passado, a IA deixou de ser um consultor para se tornar uma “ferramenta de educação”.
A fake faz uma interpretação equivocada de uma atualização publicada em 29 de outubro deste ano pela OpenAI, que lista uma série de usos proibidos do ChatGPT.
Entre eles está: “fornecimento de aconselhamento personalizado que requer uma licença, como aconselhamento jurídico ou médico, sem o envolvimento adequado de um profissional licenciado”.
Essa regra, no entanto, não é nova. Ela já constava nas Políticas de Uso anteriores da OpenAI, de janeiro de 2025. O que a empresa quer dizer é que os usuários não podem usar a IA para dar aconselhamento jurídico, médico/de saúde ou financeiro sem revisão por um profissional qualificado.
Fonte: G1




