Negócios

Anthropic, Google, Microsoft, e OpenAI abraçam autorregulação para garantir a segurança da IA



As empresas líderes em inteligência artificial, Anthropic, Google, Microsoft e OpenAI, se uniram para criar o Frontier Model Forum, um fórum destinado a priorizar o desenvolvimento seguro e cuidadoso da IA.

O fórum foi criado para abordar os crescentes riscos de segurança associados ao uso de modelos de aprendizado de máquina em larga escala, os chamados modelos de fronteira, que estão além das capacidades atuais.

As empresas reconhecem a necessidade de autorregulação no desenvolvimento de IA até que as regulamentações estejam em vigor.

O Fórum planeja se concentrar em quatro pilares principais: avançar na pesquisa de segurança da IA, definir as melhores práticas, colaborar com formuladores de políticas, acadêmicos, sociedade civil e empresas e promover o desenvolvimento de IA para enfrentar os maiores desafios da sociedade.

Com um compromisso claro em garantir a segurança, a adesão ao Frontier Model Forum exige que as empresas produzam modelos de fronteira e demonstrem dedicação à implementação de medidas de segurança.

Essa iniciativa segue um acordo de segurança recente entre a Casa Branca e grandes empresas de IA, incluindo os participantes do Frontier Model Forum.

A criação do fórum é um passo importante na direção de um desenvolvimento mais seguro e consciente da IA, com a colaboração de empresas líderes em tecnologia.


RECEBA NOTÍCIAS NO SEU WHATSAPP!
Receba gratuitamente uma seleção com as principais notícias do dia.

Mais sobre Mídia

Mais sobre Negócios