sábado, dezembro 7, 2024

Os desafios éticos na promoção de uma Inteligência Artificial inclusiva

Compartilhar

O documentário “Coded Bias”, lançado em 2021, nos convida a pensar criticamente sobre as tecnologias de reconhecimento facial. Através de histórias reais, ele mostra como esses sistemas podem falhar ao tentar identificar pessoas de grupos étnicos minoritários, revelando um cenário preocupante onde a tecnologia pode reforçar desigualdades raciais e sociais.

Neste documentário, a diretora Shalini Kantayya nos apresenta o trabalho da pesquisadora Joy Buolamwini, que revela, através de estudos sólidos e evidências práticas, o motivo pelo qual esses sistemas de reconhecimento facial apresentam mais erros na identificação de pessoas, especialmente mulheres, de pele negra. Esses problemas nos fazem questionar a objetividade e a ética dos algoritmos que usamos diariamente, levantando preocupações sobre o uso cada vez maior da inteligência artificial (IA) em diversos setores.

Embora a IA apresente potencial para otimizar processos e melhorar a qualidade de vida, ela também aponta desafios complexos, como os vieses presentes nos dados que alimentam os seus sistemas e a falta de transparência dos modelos. O documentário nos lembra que a tecnologia não é neutra; ela reflete os valores, preconceitos e perspectivas das pessoas que a desenvolvem e dos dados que a treinam, mostrando a importância de abordar questões éticas no design e implementação desses sistemas.

A IA traz benefícios como a automatização de tarefas repetitivas, economizando tempo e permitindo que profissionais se dediquem a atividades estratégicas. Na área da Saúde, por exemplo, muitos processos podem ser automatizados para agilizar diagnósticos e otimizar o tratamento, levando em consideração as características individuais de cada paciente.

Além disso, a capacidade de analisar grandes volumes de dados em tempo real pode fornecer diretrizes para melhorar a tomada de decisões e prever tendências de mercado. A personalização também é um aspecto positivo, pois sistemas de IA podem oferecer experiências personalizadas também em áreas como as da Educação e do Marketing, tornando as interações com os consumidores mais satisfatórias. A IA impulsiona ainda a inovação em campos como Medicina, Energia e Transporte, criando oportunidades de crescimento econômico e social.

No entanto, a IA também apresenta dificuldades e desafios. Como mencionamos anteriormente, os algoritmos podem refletir os preconceitos presentes nos dados usados para treinamento, resultando em discriminação e reforço de desigualdades. Além disso, muitos sistemas de IA funcionam como “caixas de Pandora”, dificultando o entendimento de como as decisões são tomadas.

Isso pode levar a erros e injustiças difíceis de serem identificados, já que as decisões baseadas em IA são frequentemente consideradas objetivas e imparciais, pois tendemos a acreditar que a tecnologia não erra. O uso crescente de dados pessoais também levanta preocupações sobre privacidade e segurança.

Além disso, a automação pode substituir algumas funções no mercado de trabalho, exigindo a requalificação de profissionais. A falta de diretrizes claras sobre o uso ético da IA pode levar a abusos e má conduta por parte das organizações, tornando necessário estabelecer normas globais consistentes.

Respondendo a essas preocupações, a nova legislação sobre inteligência artificial dos Estados Unidos fornece diretrizes claras para tornar os sistemas de IA mais transparentes e precisos. Regras de transparência, auditorias de algoritmos e proteções contra discriminação são alguns exemplos dessas diretrizes. Diversas organizações internacionais estão desenvolvendo padrões éticos para orientar o desenvolvimento da IA.

No Brasil, também estão sendo discutidos projetos de lei que visam regulamentar o uso de inteligência artificial. O PL nº 2.338/2023, em tramitação no Senado, propõe princípios, diretrizes e fundamentos para orientar a pesquisa, desenvolvimento e aplicação de IA no país, visando promover a transparência, segurança e proteção de direitos fundamentais.

No entanto, a regulamentação por si só não é suficiente. É importante que as empresas assumam um compromisso com a ética e a transparência no uso de tecnologias de IA, criando equipes diversas e promovendo a cultura de responsabilidade. A colaboração entre governos, empresas, academia e sociedade civil é fundamental para garantir que a IA seja desenvolvida e aplicada de forma ética e inclusiva. Somente assim poderemos evitar os riscos de uma sociedade cada vez mais desigual e aproveitar todo o potencial que a inteligência artificial oferece para melhorar nossas vidas e comunidades.

Christianne Pimenta, Engenheira com vasta experiência em liderança de Sistemas de Gestão. É Mestranda em Planejamento e Desenvolvimento pela PUC-GO. Especialista em Auditoria e Gestão da Qualidade, Lei Geral de Proteção de Dados e Gerenciamento de Projetos. Professora e palestrante em temas relacionados à proteção de dados, inovação e tecnologia. Coordenadora da APDADOS Regional Centro-Oeste.

Pedro Pinheiro, CEO do Grupo B Privacy, Analista de Sistemas com especializações nas áreas de tecnologia, direito e gestão.

Leia Mais

Outras Notícias