A junção entre arte e tecnologia ganha um capítulo inédito
no país. Foi aberta no último dia 5, na Galeria de Artes
da Unicamp, a instalação sonoro-visual Aural – Ambiente
evolutivo aplicado à sonificação de trajetórias robóticas.
A instalação, que conta com o apoio da Fapesp e do Pibic/CNPq,
é fortemente ancorada na pesquisa acadêmica. Entre outras
plataformas, sons e imagens são produzidos por meio da integração
de música criada por processos evolutivos, sistema de visão
artificial e uma comunidade de robôs. O usuário pode interagir
nesse cenário futurista.
A exposição é fruto da reunião das pesquisas desenvolvidas
por dois artistas-pesquisadores, ambos afeitos de longa
data a experimentações no campo da inteligência artificial:
Jônatas Manzolli e Artemis Moroni.
Compositor e matemático, Manzolli coordena o Núcleo Interdisciplinar
de Comunicação Sonora (Nics) da Unicamp. Sua pesquisa concentra-se
nas aplicações de modelos matemáticos de sistemas complexos
em composição algorítmica, síntese sonora digital, desenvolvimento
de sistemas interativos, interfaces gestuais e paisagens
sonoras. As obras de Manzolli têm sido apresentadas no Brasil,
na Europa e nos Estados Unidos. Desenvolve pesquisas interdisciplinares
envolvendo professores e alunos da Música, Matemática, Engenharia
Elétrica e Ciência da Computação. Não por acaso, Aural conta
com a contribuição de 15 alunos da Unicamp, muitos dos quais
envolvidos em trabalhos de iniciação científica orientados
pelo compositor.
Artemis Moroni é pesquisadora da Divisão de Robótica e
Visão Computacional do Centro de Tecnologia da Informação
“Renato Archer” (DRVC/CTI). Fez graduação e mestrado em
Ciência de Computação na Unicamp, e doutorado em Engenharia
de Computação, também na Universidade. Artemis já participou
de várias exposições que reuniram arte e tecnologia, entre
as quais as edições de 1989 e 1991 da Bienal de São Paulo.
Em ambas, como fundadora e coordenadora do grupo Asterisco
Ponto Asterisco (*.*), do qual foi fundadora. O trabalho
pioneiro desenvolvido pelo grupo, relembra a pesquisadora,
foi importante para suas pesquisas na área. “Os projetos
eram muito complexos, o trabalho exigia uma abordagem interdisciplinar.
As pessoas entravam e saíam de acordo com as necessidades
do trabalho”. Foi um caminho sem volta. A partir de então,
a pesquisadora sempre recorreu à fusão de diferentes elementos,
invariavelmente com conexões vanguardistas.
Partindo
para a conceituação, Artemis lembra que, atualmente, muitas
das plataformas que permitem intervenções artísticas no
campo da inteligência artificial estão acessíveis.
“Os softwares hoje disponíveis têm muito apelo entre os
jovens, a quem, aliás, dedicamos esta instalação”. Entretanto,
pondera, existe ainda muita resistência quanto às plataformas
híbridas. “Poucos encaram as intervenções tecnológicas como
arte. A maioria prefere achar que se trata de um experimento”,
argumenta, lembrando que o cinema e a fotografia também
passaram por problemas similares de aceitação.
Ademais, prossegue, há o problema da comercialização das
obras. “São instalações que não podem ser vendidas como
quadros. Em um mercado como o brasileiro, que é precário
até para os artistas consagrados, a universidade passa a
ser uma espécie de ‘mecenas’ da arte tecnológica. A resistência
existe, inclusive, por parte dos museus”.
Na opinião de Artemis, a discussão sobre criatividade e
tecnologia é recorrente. A pesquisadora vai até o século
19 para corroborar sua tese. Lembrou que Ada Lovelace (1815-1852)
foi a primeira pessoa a indagar – e responder – se os computadores
poderiam ser criativos. Na condição de colaboradora de Charles
Babbage (1791-1871), inventor do primeiro computador de
uso geral, Artemis assinala que Ada percebeu que a “máquina
analítica” de Babbage – na verdade, um projeto de um computador
digital – poderia “compor peças de música científicas e
elaboradas de qualquer grau de complexidade e extensão”.
A colaboradora de Babbage ponderava que a criatividade
deveria ser creditada não ao engenho, mas ao engenheiro.
Artemis destaca também o papel pioneiro do artista plástico
Valdemar Cordeiro, que já na década de 1960 fundia arte
e computação, reunindo equipes de profissionais de várias
áreas em seus trabalhos.
Ainda no campo dos conceitos, “o objetivo último” a ser
atingido, reforça Artemis, é o advento de um artista artificial
– computador, equipamento, sistema etc – que seja capaz
de ser criativo. “Um dos paradigmas nos modelos atuais de
criatividade computacional, que tem ainda suas limitações,
é justamente a computacão evolutiva”, afirma a pesquisadora,
que escreveu na apresentação da instalação: “Não se pode
ignorar o potencial ‘criativo’, ou ‘criador’, da evolução,
o que talvez venha atraindo a pesquisa de tantos profissionais
da área de criação, artistas, músicos e designers para o
campo da computação evolutiva. Programas que usam algoritmos
evolutivos podem evoluir estruturas inesperadas, de uma
forma que a mente humana não poderia produzir por si mesma”
.
Segundo
a pesquisadora, a computação evolutiva tem sido usada como
um modelo computacional de criatividade. Espera-se que,
com o tempo, ela consiga romper a fronteira do domínio em
exploração. “Isso tem que ser avaliado por alguém que tenha
capacidade de reconhecer o mérito do objeto. Um dos pontos
críticos, na minha opinião, é automatizar a avaliação. Não
podemos nos esquecer que a criatividade tem sempre três
componentes: o domínio, o artista e o avaliador”.
Artemis afirma que, no caso da instalação, o Aural é o
artista, funcionando consequentemente como criador nos domínios
sonoro e visual. “O avaliador é o público”, compara a pesquisadora.
Público, de resto, que poderá “atuar” na instalação. “O
usuário poderá, por meio do desenho de uma curva com o mouse,
disparar um processo que resultará numa complexa cadeia
de eventos sonoros”. Para os mais infensos às novidades,
há uma pitada de “realismo” no dia 20, data em que se encerra
a instalação. Três músicos executarão a estréia da obra
Variações Robóticas, de Manzolli, além de trechos produzidos
pelo Aural. Sons tirados da marimba, piano digital e violoncelo
se misturarão com os acordes produzidos pelo Aural.
Como funciona
O sistema de sonificação do AURAL está estruturado na aplicação
de computação avolutiva para geração de eventos sonoros.
Neste contexto, a representação do protocolo MIDI foi usada
na composição do genótipo da população de acordes em evolução,
como no desenvolvimento original do sistema VOX POPULI,
sobre o qual foi construído o núcleo da instalação AURAL,
o ambiente JaVOX. A característica sonora de ambos é descrever
o processo de sonificação através de populações de clusters
e acordes criando uma nova sonoridade a cada passo do processo.
No AURAL, as trajetórias geradas pelos robôs são associadas
às estruturas sonoras do JaVOX. No computador, o usuário
desenha curvas com o mouse, associando a elas trajetórias
que guiam a produção sonora. A curva desenhada pelo usuário
é transmitida como uma trajetória para um robô mestre, o
NOMAD, percorrer numa arena monitorada por um sistema de
visão artificial. Outros robôs móveis, os iCreates, estarão
presentes no ambiente. Quando há colisão, o iCreate se afasta.
O comportamento dos robôs é observado pelo sistema de visão
artificial, omnidirecional, que monitora as trajetórias
dos robôs, enviando-as de volta para o ambiente JaVOX.
Desta forma, o fluxo de informação parte e retorna para
o JaVOX no processo de sonificação. O sistema de amplificação
sonora é realizado no entorno do espaço onde os robôs navegam
e para isto são utilizadas duas caixas acústicas e uma placa
de som conectada ao computador central.
O processo de vínculo entre o comportamento dos robôs no
espaço e a sonificação foi desenvolvido com o objetivo de
verificar a capacidade do AURAL de criar texturas sonoras
auto-organizadas a partir de interações simples entre os
agentes do sistema, os robôs móveis. Outras câmeras capturam
imagens do ambiente que, processadas, são projetadas como
cenários. As câmeras são os “olhos” da instalação, apresentando
algumas das possibilidades do que pode ser a visão robótica.
Fonte: Artemis Maroni