No cenário contemporâneo, a aplicação da Inteligência Artificial (IA) em diversas esferas da atividade humana tem sido objeto de intensa discussão. De acordo com Macedo e Barbosa (2022), as abordagens acadêmicas e científicas divergem em duas correntes principais: a perspectiva utilitarista e a deontológica. Na visão utilitarista, a IA é considerada um meio para promover igualdade e racionalidade em várias áreas sociais, mediante análise quantitativa e programação numérica. Essa corrente fundamenta-se na teoria cibernética, concebendo a IA como um mecanismo capaz de estabelecer uma organização psicossocial justa. Nesse contexto, a IA é percebida como uma ferramenta que pode proporcionar eficiência e igualdade de oportunidades, orientada pela lógica dos números e algoritmos (Macedo; Barbosa, 2022).

Já a perspectiva deontológica, em contraposição, sustenta que a IA não deve ser empregada em tarefas inerentemente humanas, especialmente aquelas que envolvem decisões cruciais impactando a vida de indivíduos e comunidades (Macedo; Barbosa, 2022). Essa abordagem argumenta que aspectos éticos, como empatia, compreensão do contexto e julgamento moral, são intrínsecos a decisões significativas que afetam as pessoas (Macedo; Barbosa, 2022). Portanto, a deontologia questiona a adequação do uso da IA em contextos nos quais essas habilidades humanas são essenciais para assegurar decisões justas e éticas.

No campo da segurança, especialmente no contexto da imigração, Molnar e Muscati (2018) observam um movimento de expansão no uso de tecnologias de IA. Os autores destacam que os países estão automatizando o processo de análise para pedidos de visto de visitantes/turismo, autorizações de trabalho, residência permanente e outros aspectos do processo de imigração. A automação desses processos pelo governo visa agilizar o fluxo de solicitações e reduzir o tempo de espera. No entanto, segundo os autores, isso também abre brechas para questionamentos sobre possíveis enviesamentos discriminatórios da IA. Esse cenário destaca a importância de abordar criticamente a implementação de sistemas automatizados no contexto da imigração, visando garantir a equidade, a transparência e a não discriminação nas decisões relacionadas a vistos e permissões.

Schippers e Gagliardi (2021), explicam que países como Reino Unido, EUA e Nova Zelândia já utilizam a IA no processo de triagem do perfil de estrangeiros a visto de residência, nos níveis: 1 – Verde (estrangeiro com características boas para permanência como trabalho formal e bom poder aquisitivo); 2 – Amarelo (desenvolve um trabalho, contudo, sem uma boa estrutura financeira ou motivo educacional de permanência); e 3 – Vermelho (desempenha uma ocupação laboral irregular, sem vínculos formais e com pouca remuneração, ou não desenvolve nenhuma atividade econômica ou educacional).

Reforçando tal enviesamento discriminatório no campo migratório, em denúncia do grupo Joint Council for the Welfare of Immigrants, atores do grupo denunciaram terem passado por discriminação do sistema implementado pelo Reino Unido, que categorizava candidatos no nível vermelho mesmo havendo um emprego formal e ocupação educacional como pós-graduação em universidades britânicas (Schippers; Gagliardi, 2021). Quando analisadas as origens dos imigrantes, em sua maioria eram africanos, do Oriente Médio, Ásia e América Latina. Assim, de acordo com os autores, após uma série de processos judiciais contra o estado e a divulgação de novos casos na mídia em 2021, o governo britânico decidiu interromper o uso desse algoritmo na categorização de processos de imigração.

Já pesquisadores como Chambers et al. (2021) têm investigado como os softwares de IA são atualmente empregados nos sistemas de vigilância e monitoramento de fronteiras. Entre os exemplos notáveis, destaca-se o software Roborder, desenvolvido para monitorar a fronteira terrestre entre os EUA e o México, utilizando um moderno sistema de câmeras e drones para reconhecimento humano. Além disso, a big tech que criou o software também o emprega em barcos robotizados para monitoramento marítimo, com o objetivo de reforçar a segurança e controlar a entrada de comunidades de imigrantes; principalmente na Europa (Chambers et al., 2021).

Segundo os pesquisadores, a utilização do software tem levado os imigrantes a adotar rotas mais perigosas na tentativa de evitar a detecção do sistema de vigilância na fronteira EUA – México, os expondo a riscos como a travessia de desertos, onde enfrentam ameaças de desidratação, afogamento e, em alguns casos, até a morte (Chambers et al., 2021). Tal cenário levanta sérias questões humanitárias e éticas em relação ao uso de tecnologias de IA na gestão das fronteiras.

Tal panorama destaca uma preocupação sobre a falta de transparência e responsabilidade no que diz respeito ao uso da IA no campo migratório, bem como o potencial impacto negativo que isso pode ter na sociedade. Sobre isso, a literatura científica traz um quadro preocupante acerca do uso da IA, e precisamos estar sempre vigilantes. 

Imagem do post: Roborder