Notamos que você possui
um ad-blocker ativo!

Para acessar todo o conteúdo dessa página (imagens, infográficos, tabelas), por favor, sugerimos que desabilite o recurso.

Editorial

Inteligência Artificial generativa: reflexos no mercado e desafios

Presenciaremos uma revolução na maneira como as empresas funcionam por meio desta tecnologia, mas como utilizá-la de forma ética, segura e responsável?

Ajustar texto A+A-

Inteligência Artificial generativa: reflexos no mercado e desafios
Crescimento e adoção generalizada da IA generativa em nossa sociedade terá impacto significativo com efeitos positivos e preocupações (Arte: TUTU)

Por Rony Vainzof*

A Inteligência Artificial generativa traz a tecnologia para domínio antes reservado aos humanos. Estamos falando de criatividade! Com ela, algoritmos permitem que máquinas desenvolvam conteúdos novos/originais, como texto, áudio, vídeo, imagens e códigos, usando o que aprenderam com base em informações já existentes e na interação com usuários. Ela difere das aplicações usuais de IA, justamente pela capacidade de criar algo novo. Daí generativa.

Por exemplo, o DALL-E, com pequenos comandos de texto, cria imagens e artes completamente novas. Já o ChatGPT é um chatbot capaz de responder a perguntas e ajudar a resolver problemas em uma variedade de tópicos. Já são diversas as ferramentas, como: DeepMind’s, Alpha Code (GoogleLab), MidJourney, Jasper, Stable Diffusion, entre outras.

Os números impressionam: o ChatGPT atingiu um milhão de usuários em apenas cinco dias (iPhone demorou 74 dias, Instagram 2,5 meses, Spotify cinco meses, Facebook 10 meses e Netflix 3,5 anos). Em 2022, investidores injetaram pelo menos US$ 1,37 bilhão em empresas de IA generativa em 78 negócios, de acordo com dados do PitchBook. Até 2025, 10% de todos os dados produzidos serão gerados por IA generativa e 30% das mensagens de saída de grandes organizações serão geradas sinteticamente. A OpenAI, empresa que desenvolveu o ChatGPT, está avaliada em cerca de US$ 29 bilhões, segundo o jornal americano The Wall Street Journal.

A IA generativa está sendo utilizada para desenvolver, prototipar, debater e impactar os mais diversos setores: códigos de programação; trabalhos jurídicos, como opiniões legais e petições; pesquisas na área da saúde; criação de estratégias e layouts de marketing; desenvolvimento de blogs; ilustração de revistas; ambientes de videogame; conceituação de filmes; histórias em quadrinhos; concursos de arte; roteiros de viagem; e tatuagens, apenas para citar alguns exemplos.

O crescimento e adoção generalizada da IA generativa em nossa sociedade terá impacto significativo em como vivemos e trabalhamos. E, como qualquer outra tecnologia, traz efeitos positivos e preocupações.

Há casos sensíveis do uso da tecnologia, como: textos coerentes que parecem corretos, mas são fake news, pois desenvolvidos pela IA por meio de bases não filtradas, incorretas ou não confiáveis; filtros existentes não serem eficazes na captura e mitigação de conteúdo impróprio ou ilícito; vieses discriminatórios com o potencial de prejudicar indivíduos ao reforçar - ao invés de combater - preconceitos; programação de códigos maliciosos; deep fake para fraudes; evil digital twins (gêmeos digitais malignos) em metaversos para manipulação da mente humana; violação de direitos autorais, marcas e de personalidade; alunos e concurseiros “colando” para passar em provas; ausência de transparência e explicabilidade, entre outras.

Ainda, os modelos podem gerar conteúdo protegido por propriedade imaterial, como marcas registradas, textos, artes, imagens, e direitos de personalidade. Seria um “uso justo” filtrar tipos específicos de conteúdo e desenvolver novos a partir deles sem sequer citar as fontes ou sem autorização do uso da imagem que serviu como base? O que acontece quando há possível plágio diante do uso de uma fonte como base em seus dados de treinamento? Será que podemos considerar a IA generativa como mais uma ferramenta do ser humano para desenvolver novas obras (como uma câmera digital, para fotografias, ou um pincel, para artes)?

Sob a perspectiva do mercado de trabalho, será que a IA generativa criará mais empregos do que automatiza? Presenciaremos uma revolução, ainda maior, na maneira como as empresas funcionam por meio desta tecnologia, com ganhos de produtividade e economia de custos, suportando fluxos de trabalho e automatizando determinadas tarefas. Mas como ficará o mercado de trabalho?

Estamos no hype do tema. A implantação pode ser mais arriscada nesse momento embrionário, mas os benefícios para as primeiras empresas e usuários são potencialmente maiores. Ao mesmo tempo, é preciso compreender suas limitações e desafios, com informação e responsabilidade.

Se a IA generativa passa a ser fundamental para a competitividade das organizações, eficácia e produtividade precisam caminhar ao lado de princípios, como beneficência, transparência, não discriminação e prestação de contas, tanto para identificar e mitigar riscos no desenvolvimento ou uso de aplicações imprecisas ou tendenciosas, como para gerar maior confiança na tecnologia (Data Ethics e Ética by Design).

A ausência de cuidados e diligências éticas na adoção de IA generativa podem provocar efeitos danosos sobre as pessoas afetadas e representar riscos reputacionais, regulatórios e legais. A premissa é uma sólida estrutura de governança.

Executivos precisam identificar rapidamente as áreas de negócios em que a tecnologia pode ter impacto imediato e desenvolver mecanismos de implementação e monitoramento. É essencial incentivar a inovação criteriosa e responsável em toda a organização, contemplando nos conselhos empresariais diversidade cognitiva, como condição para conciliar responsabilidade corporativa e cultura empresarial.

Empresas e governo podem e devem trabalhar juntos para lidar com a transição no mercado de trabalho, diante da urgente necessidade de novas habilidades e investimentos significativos em capacitação, qualificação e requalificação de jovens, adultos e idosos.

Ou seja, é preciso refletir sobre os impactos da IA generativa de forma a extrair o melhor de ambos (humanos e máquinas) e reconhecer a importância de complementaridade em ambos, em vez de substituição.

*Rony Vainzof é advogado, especializado em LGPD e em Proteção de Dados e consultor da FecomercioSP.
Artigo originalmente publicado no Nexo em 10 de fevereiro de 2023.

Conheça o Conselho de Economia Digital e Inovação (CEDI).

Inscreva-se para receber a newsletter e conteúdos relacionados

* Veja como nós tratamos os seus dados pessoais em nosso Aviso Externo de Privacidade.
Fechar (X)