A China publicou uma proposta de requisitos de segurança para empresas que oferecem serviços alimentados por inteligência artificial generativa, incluindo uma lista restrita de fontes que não podem ser usadas para treinar modelos de IA.
Inteligência artificial generativa, popularizada pelo sucesso do ChatGPT da OpenAI, usa dados do passado para aprender como agir e cria novos conteúdos, como textos ou imagens, com base nesse treinamento.
Os requisitos foram publicados nesta quarta-feira pelo Comitê Nacional de Padronização de Segurança da Informação, que inclui autoridades da Administração do Ciberespaço da China (CAC), Ministério da Indústria e Tecnologia da Informação e polícia.
O comitê propôs a condução de uma avaliação de segurança de cada conteúdo usado para treinar modelos generativos de IA voltados ao público. Aqueles que contiverem “mais de 5% de informação ilegal ou danosa” serão colocados na lista suja.
Essas informações contêm “defender terrorismo” ou violência, além de “derrubar o sistema socialista”, “prejudicar a imagem do país” e “minar a unidade nacional e a estabilidade social”.
O rascunho também afirma que informações censuradas pela internet chinesa não devem ser usadas para treinar os modelos.