Com a evolução da tecnologia e, especificamente, da inteligência artificial (IA) e seus Robos sapiens, de que forma o Homo sapiens será impactado no seu dia a dia? Como a interação homem-máquina pode alterar/transformar as relações humanas e os processos culturais? De que forma os robôs que escrevem podem impactar a sociedade em geral e em particular o jornalismo e a educação? Em tempos de fake news, de pós-verdade, a IA pode se transformar em uma ferramenta que auxilie nas tarefas cotidianas, repetitivas, deixando mais tempo para as tarefas criativas?
Esses e outros temas relacionados aos avanços e desafios da IA foram discutidos no Fórum Permanente da Unicamp: Robôs que escrevem em tempos de desinformação: os impactos no jornalismo e na educação. O fórum ocorreu no dia 24 de outubro (terça-feira), no Centro de Convenções da Unicamp. A organização ficou a cargo dos jornalistas e pesquisadores do Laboratório de Estudos Avançados em Jornalismo (Labjor) da Unicamp Graça Caldas, Fabiano Ormaneze e Margarethe Steinberg Born, em conjunto com a Pró-Reitoria de Extensão e Cultura da Universidade.
Assista o conteúdo do Fórum:
O fórum contou com duas conferências e duas mesas-redondas. Na abertura, Lucia Santaella, da Pontifícia Universidade Católica de São Paulo (PUC-SP), fará uma palestra com o tema “Fake news e deep fakes: pós-Inteligência Artificial Generativa”. Em seguida, houve o lançamento de livros dos participantes e a mesa-redonda intitulada “O que ainda nos faz humanos: entre educação, comunicação e direitos”, com a participação de Alexandre Le Voici Sayad, da Organização das Nações Unidas para a Educação, a Ciência e a Cultura (Unesco), e Cristian Perrone, da organização não governamental Instituto de Tecnologia e Sociedade do Rio de Janeiro (ITS Rio).
“Algoritmos da Desinformação?” foi o tema da mesa-redonda da tarde, que contou com a participação de Marcos Augusto Borges, reitor da Universidade Virtual do Estado de São Paulo (Univesp) e pesquisador da Faculdade de Tecnologia de Limeira da Unicamp, além de André Kazuo Takahata, da Universidade Federal do ABC (UFABC). A conferência de encerramento ficou a cargo de Carla Gonçalves da Silva, do Grupo Ibmec Educacional S/A, cuja palestra intitulou-se “Quem tem medo da Inteligência Artificial na Educação? Precisamos falar sobre isso!”.
Acesse a programação completa.
INFORMAÇÕES ADICIONAIS
Resumos das mesas
MANHÃ: “O que ainda nos faz humanos: entre educação, comunicação e
direitos”
Alexandre Le Voici Sayad (Unesco): A natureza da IA generativa – capaz de sintetizar textos, imagens e vídeos – transforma não apenas a forma como interagimos com a tecnologia, mas também como pensamos a linguagem, a cognição e a aprendizagem, ou seja, transforma irremediavelmente a comunicação e a sociabilidade humanas. Indo além, essa tecnologia realoca questionamentos sobre se a inteligência é prerrogativa exclusiva de seres humanos, se a ideia antropomórfica de inteligência convive com outras formas de inteligência – de animais, plantas e sistemas maquínicos – e se é factível considerar as máquinas como “agentes morais”, portanto responsáveis por suas ações. Consensualmente, admite-se que os sistemas inteligentes interferem no mundo, e suas ações não são moralmente neutras – por exemplo, um sistema de seleção de candidatos a algum cargo de trabalho, utilizado por plataformas de recrutamento, ou um sistema de avaliação de créditos enviesados, desenvolvido por uma fintech ou um banco –, mas há muitas divergências em relação a atribuir um agenciamento moral a esses sistemas. Alguns filósofos alegam que a IA não tem capacidade para avaliar as consequências de suas ações. Outros defendem uma moralidade com base em critérios não antropocêntricos. Outros ainda defendem atribuir o agenciamento moral aos sistemas de IA, mas com a ressalva de que “moralidade” é muito mais do que meramente seguir regras.
Christian Perrone (ONG ITS Rio): As novas tecnologias e a inteligência artificial criam novas demandas para a Justiça e para a regulação das atividades em ambientes cibernéticos. Diversos projetos de lei tentam abarcar as dimensões éticas e morais da questão. No entanto, o que significa regular? Como a regulação dessas novas tecnologias pode impactar o uso que se faz delas na educação, nas relações interpessoais e no jornalismo?
TARDE: “Algoritmos da Desinformação?”
André Kazuo Takahata (UFABC): Aplicações de inteligência artificial, tais como assistentes virtuais, sistemas de recomendação e sistemas de navegação por GPS já fazem parte de nosso cotidiano há pelo menos duas décadas. Agora, o grande público já dispõe também de sistemas como o DALL-E e ChatGPT, que se propõem a criar imagens e textos a partir de prompts inseridos por usuários. Entretanto, tecnologias do tipo deepfake para produção de fotografias, áudio e vídeo falsos disseminam a desinformação e manipulam as crenças dos usuários gerando impactos negativos em áreas como saúde, emprego, consumo e meio ambiente, entre outras. A desinformação compromete principalmente a manutenção da democracia e a promoção da igualdade social e dos direitos humanos. Assim, vemos como importante o surgimento de iniciativas interdisciplinares que a engenharia e diversas áreas do conhecimento vêm criando para assegurar que a inovação tecnológica tenha um uso responsável, ético e seguro. Uma dessas iniciativas de combate à desinformação é o desenvolvimento de tecnologias de simplificação de texto, voltadas a melhorar a compreensão textual e a permitir maior acessibilidade textual por parte dos leitores. Na UFABC, o foco dos primeiros trabalhos tem sido levar informação adequada de modo compreensível ao público leigo e colaborar no combate à desinformação especificamente na área da saúde. Em particular, vamos destacar aqui alguns trabalhos iniciais baseados em textos biomédicos sobre a covid-19.
Marcos A. F. Borges (Univesp e Faculdade de Tecnologia de Limieira/Unicamp): Se antes a escrita de um texto era algo que diferenciava o humano da máquina, essa barreira foi rompida com os avanços da inteligência artificial. Isso nos leva a novas questões, relacionadas à adequação, segurança e ética do uso desses geradores de texto nas mais diversas ações humanas. Há oportunidades incríveis de uso dessas tecnologias em espaços de educação, por exemplo, mas há riscos e várias questões a serem ainda discutidas.