Notamos que você possui
um ad-blocker ativo!

Para acessar todo o conteúdo dessa página (imagens, infográficos, tabelas), por favor, sugerimos que desabilite o recurso.

Economia

Como não regular a inteligência artificial?

Não deve haver urgência normativa, especialmente diante do risco de obsolescência regulatória

Ajustar texto A+A-

Como não regular a inteligência artificial?
O impacto nocivo à inovação é outro ponto levantado pelo especialista (Arte: TUTU)

Por Rony Vainzof*

A inteligência artificial é tecnologia condicionante para a competitividade de nações e empresas. O progresso motivado pela revolução do aprendizado de máquina e disponibilidade de dados, que viabilizou a IA Generativa (como o ChatGPT), contribuirá para a solução de grandes desafios da humanidade, trazendo avanços científicos e crescimento econômico e social. 

A McKinsey estima que a IA Generativa possa contribuir para gerar entre US$ 2,6 trilhões e US$ 4,4 trilhões à economia global. Todos os setores estão sendo impactados positivamente, como o da saúde, financeiro e alta tecnologia. Em média, o rendimento humano ao utilizar a IA Generativa é 66% maior (Nilsen Norman).    

De outro lado, não podemos subestimar os riscos que a IA traz, compatíveis com o tamanho da sua revolução, especialmente: concentração de poder em poucos países e empresas; potencialização de vieses discriminatórios existentes na sociedade; violação de propriedade intelectual e direitos de terceiros, seja para o treinamento dos modelos algorítmicos (entrada) ou no conteúdo gerado na saída; aumento na escala e sofisticação da desinformação, dificultando a identificação do que é verdade e o que é manipulado (conteúdo sintético gerado pela IA); proteção de dados pessoais e segurança cibernética; e mudanças radicais no mercado de trabalho, considerando o intervalo de tempo para capacitação e qualificação. Sobre o último ponto, estima-se que 300 milhões de empregos atuais estejam em risco (Goldman Sachs).

É um contexto desafiador. Refletir se, quando e em que nível regular a IA é fundamental, buscando a proteção de direitos, mas sem impedir ou burocratizar ainda mais a inovação no Brasil. 

Para trazer luz sobre essas questões, recentemente participei de um dos principais eventos de inovação e tecnologia do mundo, o Web Summit 2023, em Lisboa, que poderia se chamar IA Summit, em razão da dominância do tema nas dezenas de discussões. Como o foco do Web Summit está longe de ser jurídico, foi surpreendente constatar a quantidade de debates regulatórios por lá, o que também demonstra a importância da cautela na regulação para não colocar em risco a inovação.

Praticamente houve unanimidade no risco de se regular a IA. Andrew McAfee, do MIT, por exemplo, contestou fortemente iniciativas como o AI Act da União Europeia, no sentido que novas tecnologias e modelos de negócios devem ser permitidos por padrão. Os problemas, caso surjam, poderão ser resolvidos caso a caso, posteriormente.

No Brasil, também não deveria haver urgência normativa, especialmente diante do risco de obsolescência regulatória e do impacto nocivo à inovação. Ainda, de acordo com o uso de IA, já há legislação aplicável, como o Código Civil, Código de Defesa do Consumidor, Lei Geral de Proteção de Dados e Marco Civil da Internet, além da própria Constituição Federal. 

Enquanto o mundo discute o melhor modelo regulatório, nós não precisamos servir de cobaia. Podemos observar as mais variadas alternativas e seus impactos em outros países para depois avaliar a tropicalização do modelo mais adequado. Mesmo a União Europeia, que tradicionalmente se antecipa à regulação do ambiente digital e privilegia normas mais restritivas e prescritivas, ainda não conseguiu aprovar o já mencionado AI Act, diante da escalada e reflexos da IA Generativa. Entre outras dúvidas, abriu-se nova discussão acerca das obrigações e diferenças dos modelos de fundação e das aplicações que integram um modelo para servir a uma variedade de propósitos. 

Alemanha, Itália e França se uniram para focar na regulação da aplicação da IA e não sobre o desenvolvimento da tecnologia em si, e em medidas internas a serem seguidas pelos responsáveis por cada modelo. Eventual órgão regulador não teria caráter punitivo, mas sim cooperativo, auxiliando na adoção dessas medidas. 

Fato é que, assim como a eletricidade e a internet, a IA é uma tecnologia de propósito geral que está em pleno e constante desenvolvimento. Eventual regulação, assim, deve ser suficientemente flexível e adaptável às suas rápidas mudanças e usos, permitindo experimentação, inovação e evolução contínua dos sistemas de IA. A abordagem principiológica e menos prescritiva do Marco Civil da Internet (2014), por exemplo, é reconhecida no mundo inteiro como um ótimo modelo regulatório. 

É plausível que sejam traçados parâmetros gerais para avaliação de risco no uso da IA para que a sua definição, no âmbito normativo, se dê de maneira contextual, bem como se privilegie balizas de governança em alto nível, deixando a análise fática para o caso concreto e o entendimento dos órgãos reguladores setoriais. O sucesso da regulação de um objeto em constante transformação depende da combinação de soft law com flexibilidade regulatória. Fora isso, esses parâmetros mínimos podem orientar a autorregulação e o desenvolvimento de códigos de conduta para diferentes setores de atividade econômica, podendo ser reconhecidos posteriormente pelos órgãos e autoridades públicas setoriais competentes.

Reino Unido, Japão, Cingapura e Austrália optaram por uma abordagem cautelosa na governança de IA, buscando preservar a inovação e a competitividade por meio de múltiplos instrumentos.

Nos EUA, o Presidente Joe Biden recentemente assinou ordem executiva, estabelecendo políticas públicas e diretrizes de IA para as agências federais. Ou seja, uma abordagem regulatória setorial, que pode ser objeto de estudo pelo Brasil.

Os membros do G7, grupo das maiores economias do mundo, acolheram favoravelmente princípios orientadores internacionais na matéria e um código de conduta voluntário para os criadores de IA. 

A ONU, no início de novembro, instalou órgão consultivo, com 38 membros, com o objetivo de propor diretrizes para governança da IA, e, eventualmente, uma agência global. O Brasil está ali muito bem representado, com a secretária de Direitos Digitais do Ministério da Justiça, Estela Aranha. 

Uma das principais características da economia digital é que suas cadeias globais de valor são inerentemente dinâmicas e globalizadas. É de grande relevância que o Brasil tenha participação ativa e voz nesses fóruns internacionais para a discussão das melhores práticas e de uma governança global da IA, em especial para que tenhamos convergência em termos de padrões e regulações.

Precisamos de muita cautela, letramento sobre como funcionam os novos negócios digitais e análise prévia de impacto regulatório antes da aprovação de qualquer marco regulatório da IA no Brasil. A prioridade deveria ser um plano de nação para qualificar mão de obra, com recursos e infraestrutura para criar ecossistemas em torno da capacidade humana, além de diminuir a barreira de entrada para pequenas e médias empresas. O nosso intelecto e a IA devem coexistir em sua máxima potência, se quisermos participar e atuar da vibrante e próspera economia digital, protagonizada pela IA. 

Como não regular IA? Não se precipitando.

*Rony Vainzof é advogado, especializado em LGPD e em Proteção de Dados e consultor da FecomercioSP.
Artigo originalmente publicado no Valor Econômico em 13 de dezembro de 2023.

Conheça o Conselho de Economia Digital e Inovação (CEDI).

Inscreva-se para receber a newsletter e conteúdos relacionados

* Veja como nós tratamos os seus dados pessoais em nosso Aviso Externo de Privacidade.
Fechar (X)