China aprova mais de 40 modelos de IA para utilização pública

Segundo o relatório do estado chinês, Securities Times, são mais de 40 modelos de IA para utilização pública aprovados nos últimos seis meses.
29 de janeiro, 2024

Pequim, que aprovou as aprovações em quatro parcelas desde que estabeleceu o seu processo de aprovação por volta de agosto do ano passado, terá aprovado 14 modelos de IA na semana passada. As empresas que receberam aprovações para seus modelos incluem Xiaomi, 4Paradigm e 01.AI.

A primeira parcela de aprovações foi concedida a empresas, incluindo Alibaba, Baidu e ByteDance. A segunda e terceira parcelas foram aprovadas em novembro e dezembro.

No ano passado, os institutos de investigação estatais da China informaram que as empresas tecnológicas chinesas tinham lançado 79 grandes modelos de linguagem (LLM). O governo chinês não revelou o número real de aprovações de IA que concedeu até à data.

O número assume significado no momento em que a China está envolvida numa batalha de supremacia no setor tecnológico com os EUA, que tem visto ambas as nações a utilizar estratégias que impedem o progresso uma da outra.

O relatório chega num momento em que os EUA estão a preparar uma ordem executiva para monitorar modelos de IA sendo treinados em provedores de serviços na cloud, como Microsoft, Google e AWS, a fim de tomar medidas adicionais para lidar com “a emergência nacional com relação a atividades cibernéticas maliciosas significativas”.

No entanto, ambos os países na Cimeira de Segurança da IA do Reino Unido do ano passado assinaram a Declaração de Bletchley, que é um acordo que procura a cooperação de vários países, incluindo os EUA e a China, para formar uma linha de pensamento comum que supervisionaria a evolução da IA e garantiria que a tecnologia está a avançar com segurança.

Tal como o mecanismo de aprovação de Pequim para a aprovação da IA, o Presidente dos EUA, Joe Biden, emitiu, em outubro do ano passado, uma ordem executiva que estabeleceu regras claras e medidas de supervisão para garantir que a IA é mantida sob controlo, ao mesmo tempo que proporciona caminhos para o seu crescimento.

Atualmente, o ChatGPT da OpenAI – a IA generativa mais popular – está a enfrentar vários processos judiciais, especialmente o do The New York Times, que questiona o método através do qual os dados foram utilizados para treinar os LLM subjacentes à plataforma de IA generativa.