Images that surround me

Primeiro, os seres humanos aprendem a reconhecer cada um dos estímulos que obtém através dos seus sentidos — ou seja, a ver. Depois, eles conseguem interpretar a origem destes estímulos e o seu significado. Por fim, eles aprendem-se a expressar-se com o que os rodeia (com base em processos de reconhecimento e interpretação). Não conseguir reconhecer (ou reconhecer muito vagamente) estes estímulos impossibilitam uma correcta interpretação do mundo que nos rodeia — ou seja, torna-nos seres cegos e dependentes.

 

O mesmo pode ser directamente aplicado aos computadores. Graças às limitações tecnológicas e/ou espaciais, sentidas no advento da computação, os computadores foram desenhados como «seres» praticamente cegos. «Seres» incapazes de observar o mundo que os rodeava, limitados as percepções e interações que obtinham através do rato e do teclado.

 

Todavia, hoje em dia, a investigação em inteligência artificial tem permitido que os computadores sejam «seres», cada vez mais complexos, inteligentes e capazes de lidar com uma grande quantidade de dados de entrada (ou seja, estímulos). Deste modo, neste projecto estamos a desenvolver computadores capazes de ver o ambiente onde estão inseridos, e interpretar-lo através do seu ponto de vista. Para isso, ligamos os computadores ao seu ambiente utilizando uma câmera (que, consequentemente, se torna o olho do computador). Assim, o computador torna-se um cérebro, que observa o seu mundo (através de técnicas de visão por computador) com o intuito de o compreender.

 

Tal como os humanos, estes computadores representam o ser ambiente através do seu modo de ver. Deste modo, o projecto images that surround me, tem explorado diferentes abordagens gráficas para representar a percepção do ambiente pelo computador, através do(s) seu(s) próprio(s) olho(s). Neste sentido, os elementos gráficos utilizados para o rendering são sempre intrínsecos ao mundo computacional (ou seja, são linguagens visuais relacionadas com o mundo digital).

 

O projecto é inédito e ainda continua em desenvolvimento. Neste momento, desenvolvemos várias abordagens gráficas explorando a utilização de três elementos gráficos distintos: (i) o pixel (elemento visual chave na definição do mundo digital); (ii) a tipografia (elemento visual chave na comunicação de informação no mundo digitais); e (iii) emojis (elemento visual chave na comunicação de emoções no mundo digitais). No desenvolvimento destas abordagens foram utilizadas técnicas de inteligência artificial (como, por exemplo, visão por computador, design generativo e computação evolucionária).

 

Figure 1

Figura 1

Protótipo preliminar da instalação, numa sessão de teste, com vários utilizadores a interagir com ele.

 

Explorando o conceito de pixel, desenvolvemos uma abordagem de design generativo que desenha imagens monocromáticas utilizando um conjunto de formas gráficas de formato e tamanho variável, com uma função semelhante à do pixel. Nesta abordagem, os valores médios de brilho dos pixels de uma imagem de entrada são usado para definir o tamanho, cor e formato das formas utilizadas. Assim, é possível gerar resultados semelhantes ao ambiente capturado pelo olho do computador (ver figura 2).

 

Figure 2

Figura 2

Quatro resultados obtidos através de uma abordagem que cria imagens utilizando formas gráficas inspiradas no pixels (neste caso, foram gerados retratos).

 

Explorando as formas tipográficas, desenvolvemos um conjunto de abordagens que geram imagens monocromáticas através de (i) letras; (ii) palavras; e (iii) texto.

 

Para gerar composições com letras, os valores médios de brilho dos pixels de uma imagem de entrada são usado para definir o tamanho e a posição dos glifos que compõem a imagem (ver figuras 3–4 e vídeos 1–2).

 

Figure 3

Figura 3

Resultado obtido através de uma abordagem que utiliza letras para gerar imagens (neste caso, foi gerado um retrato).

 

Figure 4

Figura 4

Nesta figura são apresentados quatro resultados gráficos, que utilizam letras como elemento gráfico base, desenhados a partir da mesma imagem de entrada com diferentes configurações de captura e/ou rendering.

 

Figure 5

Vídeo 1

Vídeo demonstrando a geração de imagens com letras em tempo-real.

 
 

Figure 6

Vídeo 2

Vídeo demonstrando a geração de imagens com letras em tempo-real e as interações entre as pessoas e a instalação. Porém, ao contrário da abordagem apresentada no vídeo 1 o resultado é estático.

 

Paralelamente, desenvolvemos uma abordagem que recria o ambiente circundante ao computador utilizando palavras. Tal com na abordagem anterior — que utiliza letras — utilizamos os valores médios de brilho dos pixels de uma imagem de entrada. Estes valores são, então, usado para gerar uma imagem composta por palavras, onde o peso e o movimento horizontal do tipo de letra está directamente relacionado com os valores de brilho dos pixels da imagem original (ver figuras 5 e 6).

 

Figure 7

Figura 5

Resultados obtidos através da composição de palavras. Para gerar estas imagens foi utilizada a mesma imagem de entrada e para cada uma das imagens geradas foram definidas diferentes configurações de captura/rendering.

 

Figure 8

Figura 6

Resultado obtido da composição de palavras. Nesta imagem as zonas mais escuras da imagem foram preenchidas com palavras escritas utilizando um tipo de letra caligráfico.

 

Tirando partido da composição textual, desenvolvemos uma abordagem para criar imagens monocromáticas utilizando os valores médios de brilho dos pixels de uma imagem de entradas para compor textos. Nestas composições as variações de peso dos glifos permitem que sejam criadas arranjos textuais que são semelhantes as imagens de entrada. Nesta abordagem utilizamos um uma tipografia variável desenvolvida por um sistema de geração automática de tipos de letra (ver figura 7 e vídeo 3).

 

Figure 9

Figura 7

Resultado obtido através da composição do texto.

 

Figure 10

Vídeo 3

Vídeo demonstrando o funcionamento em tempo-real da abordagem que desenha imagens através da composição do texto.

 

Explorando as formas dos emojis, desenvolvemos uma abordagem que desenha imagens coloridas. Nesta abordagem as cores dos pixels são usadas para escolher um emoji semelhante. Os emojis escolhidos são, depois, usados para redesenhar o ambiente captado (ver figura 8 e vídeo 4).

 

Figure 11

Figura 8

Três resultados obtidos através da abordagem que desenha imagens utilizando emojis.

 

Figure 12

Vídeo 4

Vídeo demonstrando o funcionamento em tempo-real da abordagem que desenha imagens utilizando emojis.

 

Em termos de hardware, a instalação consiste num computador (i) ligado a uma câmera de vídeo (para captar o ambiente circundante ao computador), e um (ii) monitor para mostrar as interpretações resultantes da leitura do ambiente pelo computador. A figura 9 e 10 demostram possíveis planos expositivos para a instalação.

 

Figure 13

Figura 9

Plano exibicional apresentando três das abordagens desenvolvidas, em instalação.

 

Figure 14

Figura 10

Plano exibicional apresentando uma das abordagens em instalação.