• CloneX
  • Posts
  • Edição duzentos e sessenta e um

Edição duzentos e sessenta e um

A 261 é sobre Superalignment

Tempo de leitura: 2 min e 06 seg

INTELIGÊNCIA ARTIFICIAL

GPT-5 supera médicos humanos em testes de raciocínio clínico

Pesquisadores da Emory University avaliaram o GPT-5 para suporte à decisão médica, testando sua capacidade de raciocínio em tarefas que combinam texto e imagens médicas — tudo em zero-shot, sem ajuste fino.

No benchmark MedXpertQA MM, o GPT-5 superou médicos licenciados em raciocínio (+24,23%) e compreensão (+29,40%)

Apesar do desempenho evoluindo continuamente, o gargalo continua sendo a responsabilidade legal: quem responde por decisões erradas tomadas com auxílio de IA?

Fonte: Emory University

Mais detalhes:

  • Além do GPT-5 padrão, os pesquisadores testaram variantes mini e nano (disponíveis via API), que superaram o GPT-4o em múltiplos cenários.

  • Um dos estudos mostrou o GPT-5 integrando informações visuais e textuais para recomendar corretamente uma intervenção médica de alto risco.

  • Você pode acessar esse link para ler o artigo completo.

INTELIGÊNCIA ARTIFICIAL

Claude ganha habilidade de encerrar conversas abusivas

A Anthropic adicionou ao Claude Opus 4 e 4.1 a capacidade de encerrar conversas em casos extremos de interações persistentes e abusivas, como pedidos de violência em larga escala, por exemplo.

Nos testes, Claude mostrou recusa consistente a tarefas nocivas e tendência a encerrar diálogos quando exposto repetidamente a solicitações abusivas.

Esse tipo de intervenção aponta para o futuro do Superalignment, um dos campos mais importantes da IA que consiste no estudo de como manter inteligências maiores do que a humana alinhadas com os valores humanos.

Fonte: Anthropic

Mais detalhes:

  • A função só é usada como último recurso, após múltiplas tentativas de recusa e redirecionamento, ou quando o próprio usuário pede o encerramento.

  • Ao encerrar, a conversa é bloqueada para novas mensagens, mas o usuário pode iniciar outros chats.

  • Em 2023 a OpenAI anunciou um time dedicado ao Superalignment, mas encerrou logo depois.

CLONEX CLUB

Superalignment

É a primeira vez na história que o ser humano precisa pensar em como controlar algo mais inteligente do que ele mesmo.

Muitas vezes já controlamos animais com maior força física, mas intelectualmente o ser humano sempre esteve na frente.

Por isso o debate sobre o alinhamento com os valores humanos tem ganhado tanta importância, a ponto de várias empresas criarem equipes dedicadas a isso.

A OpenAI, por exemplo, teve problemas nesse tema. A decisão de encerrar o time de Superalignment foi um dos motivos da saída de Ilya Sutskever — um dos cientistas de IA mais respeitados do mundo.

Logo depois, ele fundou sua própria empresa, chamada Safe Superintelligence, que levantou US$ 1 bilhão já no início.

O debate sobre alinhamento é profundo e chega a ser até filosófico.

Você já tem alguma opinião sobre isso? Pare um momento para refletir, é interessante.

Bom dia. Até amanhã. Tchau.