- CloneX
- Posts
- Edição duzentos e sessenta e um
Edição duzentos e sessenta e um
A 261 é sobre Superalignment

Tempo de leitura: 2 min e 06 seg
INTELIGÊNCIA ARTIFICIAL
GPT-5 supera médicos humanos em testes de raciocínio clínico

Pesquisadores da Emory University avaliaram o GPT-5 para suporte à decisão médica, testando sua capacidade de raciocínio em tarefas que combinam texto e imagens médicas — tudo em zero-shot, sem ajuste fino.
No benchmark MedXpertQA MM, o GPT-5 superou médicos licenciados em raciocínio (+24,23%) e compreensão (+29,40%)
Apesar do desempenho evoluindo continuamente, o gargalo continua sendo a responsabilidade legal: quem responde por decisões erradas tomadas com auxílio de IA?
Fonte: Emory University
Mais detalhes:
Além do GPT-5 padrão, os pesquisadores testaram variantes mini e nano (disponíveis via API), que superaram o GPT-4o em múltiplos cenários.
Um dos estudos mostrou o GPT-5 integrando informações visuais e textuais para recomendar corretamente uma intervenção médica de alto risco.
Você pode acessar esse link para ler o artigo completo.
INTELIGÊNCIA ARTIFICIAL
Claude ganha habilidade de encerrar conversas abusivas

A Anthropic adicionou ao Claude Opus 4 e 4.1 a capacidade de encerrar conversas em casos extremos de interações persistentes e abusivas, como pedidos de violência em larga escala, por exemplo.
Nos testes, Claude mostrou recusa consistente a tarefas nocivas e tendência a encerrar diálogos quando exposto repetidamente a solicitações abusivas.
Esse tipo de intervenção aponta para o futuro do Superalignment, um dos campos mais importantes da IA que consiste no estudo de como manter inteligências maiores do que a humana alinhadas com os valores humanos.
Fonte: Anthropic
Mais detalhes:
A função só é usada como último recurso, após múltiplas tentativas de recusa e redirecionamento, ou quando o próprio usuário pede o encerramento.
Ao encerrar, a conversa é bloqueada para novas mensagens, mas o usuário pode iniciar outros chats.
Em 2023 a OpenAI anunciou um time dedicado ao Superalignment, mas encerrou logo depois.
CLONEX CLUB
Superalignment

É a primeira vez na história que o ser humano precisa pensar em como controlar algo mais inteligente do que ele mesmo.
Muitas vezes já controlamos animais com maior força física, mas intelectualmente o ser humano sempre esteve na frente.
Por isso o debate sobre o alinhamento com os valores humanos tem ganhado tanta importância, a ponto de várias empresas criarem equipes dedicadas a isso.
A OpenAI, por exemplo, teve problemas nesse tema. A decisão de encerrar o time de Superalignment foi um dos motivos da saída de Ilya Sutskever — um dos cientistas de IA mais respeitados do mundo.
Logo depois, ele fundou sua própria empresa, chamada Safe Superintelligence, que levantou US$ 1 bilhão já no início.
O debate sobre alinhamento é profundo e chega a ser até filosófico.
Você já tem alguma opinião sobre isso? Pare um momento para refletir, é interessante.
Bom dia. Até amanhã. Tchau.