Getting your Trinity Audio player ready...
|
O lançamento do ChatGPT, no final de 2022, deu início ao boom da IA generativa. Em pouco tempo, essa tecnologia se consolidou como uma ferramenta importante para impulsionar a inovação e otimizar processos, e se tornou indispensável para diferentes modelos de empresas e negócios. Por outro lado, o uso mal-intencionado do recurso também cresce a passos largos, desencadeado discussões sobre a necessidade de regulamentação da IA.
Em diversos países do mundo, propostas de regulamentação ressaltam a necessidade de assegurar o uso ético, seguro e benéfico da IA para a sociedade. Somente no Brasil, há cerca de 46 projetos de lei em tramitação no Congresso Nacional. A maior parte dos textos destaca a importância de equilibrar a utilização da tecnologia com a proteção dos direitos dos cidadãos.
Neste artigo, você vai se atualizar sobre as discussões em torno da regulamentação da IA no Brasil e em outros países, e descobrir como a legislação pode garantir segurança e ética sem comprometer o desenvolvimento tecnológico.
A regulamentação da IA no Brasil
A regulamentação é um conjunto de medidas legais que estabelecem normas e diretrizes sobre um assunto de impacto social. A grande quantidade de projetos em tramitação no Congresso indica que a regulamentação da IA é um tema que tem despertado grande interesse entre parlamentares e cidadãos. De acordo com a CNN, há pelo menos 34 projetos em discussão na Câmara dos Deputados, e outros 12 no Senado Federal.
Muitos pontos que se repetem na maioria dos projetos de lei representam as principais preocupações de deputados e senadores sobre o tema:
- Uso de “deepfakes“ para criar conteúdos enganosos com voz e imagem, sem autorização das pessoas envolvidas;
- Manipulação de voz e imagem de pessoas já falecidas;
- Plágio e utilização indevida de obras protegidas por direitos autorais;
- Utilização da IA para aplicação de golpes financeiros e outros tipos de crimes cibernéticos;
- Violação de direitos individuais e dos valores democráticos;
- Exclusão ou preconceito contra determinados segmentos da população.
Uma das matérias de maior destaque é o PL 2338/23, atualmente em análise no Senado Federal. O texto (confira a íntegra aqui) tem recebido apoio de especialistas e também ganhou aceno positivo do Poder Executivo.
O que diz o PL 2338/23
O Projeto de Lei 2338/23 foi apresentado em maio de 2023 e é resultado do trabalho realizado por uma comissão de juristas, formada por especialistas em direito civil e direito digital. O processo de elaboração do texto incluiu a realização de uma série de audiências públicas, além de um seminário internacional, onde mais de setenta especialistas foram ouvidos. As discussões também envolveram representantes da sociedade civil organizada, academia, setor privado e 19 ministérios do governo federal.
A matéria propõe regras gerais para o uso da inteligência artificial no Brasil, abordando desde questões de privacidade até a transparência em processos automatizados. O PL também destaca a importância de promover a inovação tecnológica sem comprometer a segurança e os direitos dos cidadãos. Isso inclui determinar que as empresas que desenvolvem e utilizam IA sigam preceitos éticos rigorosos, ao mesmo tempo em que terão liberdade para aperfeiçoar a tecnologia.
Entre as medidas propostas pelo PL para os sistemas de IA, estão a realização de testes para avaliação de níveis apropriados de confiabilidade, incluindo testes de robustez, precisão e cobertura, e a adoção de medidas técnicas para explicar o funcionamento do modelo algorítmico empregado e os critérios adotados para a produção de conteúdos.
De acordo com o PL 2338/23, a supervisão humana é um fator importante no desenvolvimento e atualização de sistemas de IA. O monitoramento realizado por um ser humano pode prevenir ou minimizar riscos para direitos e liberdades de usuários em decorrência da aplicação indevida da tecnologia. Funcionários de empresas que produzem sistemas de IA também precisarão analisar, identificar e corrigir sinais de anomalias, disfuncionalidades e desempenho inesperado.
A regulamentação da IA em outros países
A regulamentação da IA também tem se tornado um tema central nas agendas de governos e entidades ao redor do mundo. Com o avanço rápido dessa tecnologia, a necessidade de estabelecer diretrizes objetivas e seguras é cada vez mais urgente.
A União Europeia tem sido pioneira na regulamentação da IA. Em 2019, o bloco divulgou um guia com recomendações e políticas para o uso da tecnologia, que serviu de base para um projeto rigoroso anunciado no ano seguinte. Este texto proíbe grande parte dos recursos destinados à vigilância, e impõe multas de até 6% do faturamento global para organizações que violarem as normas.
A China, líder na implementação de tecnologias de IA, também avançou na regulamentação. O Ministério da Ciência e Tecnologia do país asiático publicou um documento com princípios de governança para a geração de IA. O texto procura garantir valores éticos no desenvolvimento de sistemas, que devem respeitar padrões de segurança nacional.
Nos Estados Unidos, agências federais, como a Comissão Federal de Comércio (FTC) e a Administração Nacional de Telecomunicações e Informação (NTIA), têm emitido diretrizes e recomendações. Em 2020, foi criada a Lei da Iniciativa Nacional de Inteligência Artificial, coordenando as atividades ligadas à IA nos órgãos do governo, que já enfatizou a importância de promover a inovação sem prejudicar os cidadãos americanos.
Algumas Big Techs também têm se posicionado publicamente a favor da regulamentação da IA. Em 2020, o CEO do Google, Sundar Pichai, declarou que a legislação deve acompanhar o avanço tecnológico e que as empresas precisam se comprometer com a questão. Em 2023, o vice-presidente da Microsoft, Brad Smith, disse que a regulamentação é positiva e urgente, como forma de equilibrar inovação tecnológica contínua com a proteção de direitos civis.
A IA pode fomentar o desenvolvimento tecnológico
A regulamentação da IA é um esforço global que envolve governos, entidades internacionais e empresas de tecnologia. Essas iniciativas são cruciais para garantir que a IA seja desenvolvida e utilizada de maneira ética, segura e benéfica para toda a sociedade.
O Plano Brasileiro de Inteligência Artificial 2024-2028, divulgado recentemente pelo governo federal, prevê um investimento significativo na melhoria dos serviços públicos por meio da IA, além de enfatizar a importância da educação e da conscientização em relação ao uso adequado desses recursos.
O Grupo Soluti é movido pela paixão por tecnologia, e acredita que a IA pode fomentar a inclusão social e o desenvolvimento econômico do Brasil se for utilizada de forma ética e responsável. Para isso, é importante que o nosso país tenha uma legislação robusta e atualizada, que prepare a população para as mudanças trazidas pela inteligência artificial.