A questão importante do uso da Inteligência Artificial, que no Brasil ganhou um ingrediente especial neste ano de 2024, por conta das eleições municipais de outubro, recebeu ontem um forte alívio.
É que o Parlamento Europeu aprovou uma lei pioneira no mundo para regulamentar essa ferramenta revolucionária.
As regras dividem as tecnologias pelo risco: quanto maior o perigo para os seres humanos, maiores as restrições. A regulação proíbe, por exemplo, tecnologias de reconhecimento facial, mas abre exceção para o uso pela polícia.
As empresas também terão que respeitar os direitos autorais de obras utilizadas para treinar sistemas de geração automática de texto e imagem. A legislação prevê multas de até 35 milhões de euros e deve entrar em vigor ao longo dos próximos dois anos.
A norma proíbe manipulações de conteúdo falso para criar ou substituir imagem ou voz de candidato com objetivo de prejudicar ou favorecer candidaturas. A restrição do uso de chatbots e avatares para intermediar a comunicação das campanhas com pessoas reais também foi aprovada.
No Brasil, TSE deu o primeiro passo
No Brasil, o Tribunal Superior Eleitoral aprovou por unanimidade normas que têm o objetivo do TSE evitar a circulação de montagens de imagens e vozes produzidas por aplicativos de inteligência artificial para manipular declarações falsas de candidatos e autoridades envolvidas com a organização do pleito.
Mas falta ao país uma lei geral que abranja todos os segmentos, especialmente os que tratem das empresas e do sistema financeiro.
Na Câmara Federal aguarda-se aprovação do marco legal
De parte da Câmara dos Deputados está se aguardando aprofundamento do debate e votação do chamado Marco Legal da Inteligência Artificial (IA), que é um conjunto de leis e regulamentações destinadas a orientar o desenvolvimento, uso e impacto da IA na sociedade.
Com o avanço rápido da tecnologia, como podemos observar com o uso do ChatGPT, Alexa, entre outros modelos que utilizam, especialmente a IA, tornou-se essencial estabelecer diretrizes claras para garantir que a IA seja desenvolvida e utilizada de maneira ética, responsável e segura.
Este marco legal aborda uma variedade de questões, incluindo privacidade, transparência, responsabilidade e viés algorítmico.
No texto que a Câmara discute constam pontos essenciais, a saber:
* Princípios;
* Direitos dos afetados;
* Classificação de riscos;
* Obrigações e requisitos de governança;
* Supervisão e Responsabilização.
As regras variam para sistemas de alto risco — como a gestão de infraestruturas críticas, a exemplo de áreas como segurança, educação, formação, recrutamento, entre outros — e risco excessivo — para induzir comportamentos prejudiciais –, avaliação que será feita pelo poder público.
Uma das principais preocupações em torno da IA é a privacidade dos dados. Com a capacidade de coletar, analisar e interpretar grandes quantidades de dados, os sistemas de IA podem comprometer a privacidade das pessoas se não forem devidamente regulamentados. O Marco Legal da IA pode estabelecer padrões para a coleta e uso de dados, garantindo que as informações pessoais sejam protegidas e que o consentimento adequado seja obtido antes da utilização desses dados.
A responsabilidade também é uma questão crucial. Quando a IA é usada para tomar decisões importantes que afetam as pessoas, como concessão de crédito, contratação ou sentenças judiciais, é essencial garantir que haja prestação de contas quando algo der errado. O Marco Legal da IA pode atribuir responsabilidades claras aos desenvolvedores, usuários e proprietários de sistemas de IA, garantindo que eles sejam responsabilizados por quaisquer danos causados por seus sistemas.
41% das empresas já usam inteligência artificial
Uma pesquisa recente encomendada pela IBM, com dados de 2022, revelou que 41% das empresas no Brasil já implementaram ativamente a inteligência artificial (IA) em alguns setores. Na América Latina, a tecnologia é usada pelas companhias principalmente para detecção de segurança/ameaças (44%), atendimento eletrônico aos clientes (44%) e marketing e vendas (30%).