COMPUTAÇÃO GRÁFICA
segunda-feira, 6 de março de 2017
sábado, 13 de fevereiro de 2016
Possíveis Aplicações em Visão Computacional
ÁREA: Visão Computacional
ÁREAS CORRELATAS: INTELIGÊNCIA ARTIFICIAL, RECONHECIMENTO DE PADRÕES DE IMAGENS, DATA MINING, COMPUTAÇÃO GRÁFICA, REDES COMPLEXAS
Título: Análise Automática de Imagens Naturais
Resumo: Segmentação Automática de Imagens é o processo de separar uma cena em suas partes constituintes. A Figura 1 (lado esquerdo) a seguir é um exemplo de uma cena natural, tirada por uma camêra comum, e a Figura 1 (lado direito) é um exemplo de sua segmentação com um algoritmo baseado em Visão Computacional.
Figura 1: (lado esquerdo) exemplo de uma cena natural; (lado direito): exemplo de um processo automático de segmentação.
A segmentação automática de imagens é uma área de pesquisa com várias aplicações praticas. Por ser um processo que geralmente acontece no início dos sistemas de visão, tem um impacto em todas as demais etapas posteriores. Uma falha no módulo de segmentação pode se propagar em "efeito dominó" para muito além das etapas iniciais.
a) Navegação Robótica: esta aplicação visa a instalação de câmeras em robôs autônomos que se locomovem a partir da interpretação de sinais que podem ir além da visão de máquina. Um exemplo conhecido é o robô Spirit, utilizado pela NASA para explorar a superfície do Planeta Marte (Figura 2).
Figura 2
b) Robótica Colaborativa: neste tipo de aplicação, a navegação de robô deve ser,além de autônoma, relacional, considerando um grupo de robôs que devem colaborar e tomar decisões com objetivos comuns (Figura 3) ou metas de grupos, como é o caso de futebol de robôs (Figura 4).
Figura 3: Robótica colaborativa, utilizada em aplicações que requerem intercâmbio entre indivíduos robóticos.
Figura 4: Futebol de Robôs é um exemplo de colaboração para atingir metas de grupos (ou equipes).
c) Recuperação de Informação Visual. Também chamada de Recuperação de Imagem com Base no Conteúdo (RIBC), é uma das aplicações mais antigas, ambiciosas e desafiadoras da área de Visão Computacional, por lidar com a interpretação de cenas naturais. Seu objetivo é amplo, pois vai desde a recuperação de imagens na web (as chamadas Máquinas de Busca) até a classificação de banco de dados de imagens ou vídeos.
Figura 5: Interface de uma Máquina de Busca de Imagens com base no conteúdo visual de informação.
d) Análise de Imagens Médicas. Esta é uma área de maior demanda em Visão Computacional, podendo gerar aplicações para diagnóstico automático (Figura 6) ou reconstrução e visualização de superfícies doentes (Figura 7).
Figura 6: Interface para Análise Automática de Imagens Médicas.
Figura 7: Interface para Reconstrução de Próteses Craniofaciais
e) Análise de Caracteres. Aqui trata-se de uma aplicação que envolve o reconhecimento de placas e escrita humana.
Figura 8: Reconhecimento de Placas
f) Reconhecimento Facial. Este tipo de aplicação visa a detecção de rostos humanos, não somente para o entretenimento e segurança, mas também objetivando encontrar pessoas desaparecidas.
Figura 9: Exemplo de Reconhecimento facial a partir da segmentação de imagens. Inicialmente, são definidas áreas candidatas com um processo de segmentação; depois, as regiões-alvo são classificadas como sendo um rosto.
g) Rastreamento (Tracking) de Pessoas: Trata-se de uma área já estudada há bastante tempo, mas que ainda demanda muito trabalho de pesquisa. A Figura 10 mostra um exemplo de rastreamento de várias pessoas ao mesmo tempo, em ambiente de fundo heretogêneo e aberto. Nesse caso, tanto as regiões a serem rastreadas quanto o ambiente em que se encontram movem-se no tempo, o que aumenta o grau de complexidade da aplicação. Entre as demandas estão: segurança, contagem de pedestres, localização de pessoas e atividades, entre muitas outras.
Figura 10: Tracking de várias pessoas em ambiente aberto.
Prof. Dr. Paulo S. Rodrigues
Grupo de Processamento de Sinais
Centro Universitário da FEI
São Bernardo do Campo, SP
sexta-feira, 1 de março de 2013
Modelagm 3D com NURBS
Prezados, aqui estão três vídeos excelentes que eu selecionei do youtube sobre o uso de Modelagem 3D. Serve para dar um boa ideia do propósito da aula de Curvas e Superfícies. Observem como o Modelador pode controlar curvas complexas somente manipulando alguns pontos de controle.
quinta-feira, 10 de janeiro de 2013
Estágio de Iniciação Científica
ÁREA: Visão Computacional
ÁREAS CORRELATAS: INTELIGÊNCIA ARTIFICIAL, RECONHECIMENTO DE PADRÕES DE IMAGENS, DATA MINING, COMPUTAÇÃO GRÁFICA, REDES COMPLEXAS
DEPARTAMENTO DE CIÊNCIA DA COMPUTAÇÃO E PÓS-GRADUAÇÃO STRICTU SENSU DO DEPARTAMENTO DE ENGENHARIA ELÉTRICA DA FEI
REQUISITOS BÁSICOS: Ser regularmente matriculado nos cursos de Ciência da Computação ou Engenharia Elétrica da FEI; Ter nota mínima 7.0 no curso; Nunca ter tido nenhuma DP.
REQUISITOS GERAIS: Ter interesse em pesquisa em uma das áreas citadas acima; Ter pelo menos 20 horas semanais para dedicar ao projeto, sendo que deve ter disponibilidade para distribuir essas horas durante a semana, incluindo possíveis mudanças de horários, de acordo com as necessidades do projeto;
Ter interesse em linguagens de programação; Ter aptidão para trabalhar em equipe; Gostar de literatura técnica e Geral; Gostar de Matemática, Programação e Inglês; Gostar de escrever;
COMO PARTICIPAR: A qualquer momento, agendar uma entrevista por e-mail (psergio@fei.edu.br) com o Prof. Paulo Sérgio Rodrigues
Título: Análise Automática de Imagens Naturais
Resumo: Segmentação Automática de Imagens é o processo de separar uma cena em suas partes constituintes. A Figura 1 (lado esquerdo) a seguir é um exemplo de uma cena natural, tirada por uma camêra comum, e a Figura 1 (lado direito) é um exemplo de sua segmentação com um algoritmo baseado em Visão Computacional.
Figura 1: (lado esquerdo) exemplo de uma cena natural; (lado direito): exemplo de um processo automático de segmentação.
A segmentação automática de imagens é uma área de pesquisa com várias aplicações praticas. Por ser um processo que geralmente acontece no início dos sistemas de visão, tem um impacto em todas as demais etapas posteriores. Uma falha no módulo de segmentação pode se propagar em "efeito dominó" para muito além das etapas iniciais.
a) Navegação Robótica: esta aplicação visa a instalação de câmeras em robôs autônomos que se locomovem a partir da interpretação de sinais que podem ir além da visão de máquina. Um exemplo conhecido é o robô Spirit, utilizado pela NASA para explorar a superfície do Planeta Marte (Figura 2).
b) Robótica Colaborativa: neste tipo de aplicação, a navegação de robô deve ser,além de autônoma, relacional, considerando um grupo de robôs que devem colaborar e tomar decisões com objetivos comuns (Figura 3) ou metas de grupos, como é o caso de futebol de robôs (Figura 4).
Figura 3: Robótica colaborativa, utilizada em aplicações que requerem intercâmbio entre indivíduos robóticos.
Figura 4: Futebol de Robôs é um exemplo de colaboração para atingir metas de grupos (ou equipes).
c) Recuperação de Informação Visual. Também chamada de Recuperação de Imagem com Base no Conteúdo (RIBC), é uma das aplicações mais antigas, ambiciosas e desafiadoras da área de Visão Computacional, por lidar com a interpretação de cenas naturais. Seu objetivo é amplo, pois vai desde a recuperação de imagens na web (as chamadas Máquinas de Busca) até a classificação de banco de dados de imagens ou vídeos.
Figura 5: Interface de uma Máquina de Busca de Imagens com base no conteúdo visual de informação.
d) Análise de Imagens Médicas. Esta é uma área de maior demanda em Visão Computacional, podendo gerar aplicações para diagnóstico automático (Figura 6) ou reconstrução e visualização de superfícies doentes (Figura 7).
Figura 6: Interface para Análise Automática de Imagens Médicas.
Figura 7: Interface para Reconstrução de Próteses Craniofaciais
e) Análise de Caracteres. Aqui trata-se de uma aplicação que envolve o reconhecimento de placas e escrita humana.
Figura 8: Reconhecimento de Placas
f) Reconhecimento Facial. Este tipo de aplicação visa a detecção de rostos humanos, não somente para o entretenimento e segurança, mas também objetivando encontrar pessoas desaparecidas.
Figura 9: Exemplo de Reconhecimento facial a partir da segmentação de imagens. Inicialmente, são definidas áreas candidatas com um processo de segmentação; depois, as regiões-alvo são classificadas como sendo um rosto.
g) Rastreamento (Tracking) de Pessoas: Trata-se de uma área já estudada há bastante tempo, mas que ainda demanda muito trabalho de pesquisa. A Figura 10 mostra um exemplo de rastreamento de várias pessoas ao mesmo tempo, em ambiente de fundo heretogêneo e aberto. Nesse caso, tanto as regiões a serem rastreadas quanto o ambiente em que se encontram movem-se no tempo, o que aumenta o grau de complexidade da aplicação. Entre as demandas estão: segurança, contagem de pedestres, localização de pessoas e atividades, entre muitas outras.
Figura 10: Tracking de várias pessoas em ambiente aberto.
Por que fazer Iniciação Científica?
Existe um mito no meio acadêmico que diz: "se você não fizer estágio em uma empresa durante a sua graduação, as chances no mercado de trabalho diminuirão muito".
Na minha opinião, é claro que um estágio bem feito em uma empresa séria (não necessariamente grande), tanto pode agregar valor à sua experiência profissional quanto pode abrir as portas para trabalhar na própria empresa onde estagiou. Acreditando linearmente nessa ideia, muitos alunos lançam-se na busca por um estágio, seja ele qual for, desde o primeiro semestre da faculdade; pois ganhar dinheiro no mercado que envolve a sua futura área profissional, além da chance de ganhar experiência com quem trilhou a mesma estrada, reforça o sonho de muitos dos estagiários de primeira viajem. Mas ... a realidade pode ser outra, e essa tentativa de se tornar um profissional precoce pode ser desastrosa ou atrapalhar a carreira a longo prazo.
Um aluno recém chegado a um curso de faculdade deve ter cautela para decidir a hora de começar a estagiar. A idade em que geralmente se encontram, perto dos 20 anos, pede, antes de mais nada, acúmulo de conhecimento teórico, o que só pode ser conseguido com muitas horas de dedicação aos estudos e à formação de uma base sólida sobre a qual se assentará o futuro profissional.
Nesse contexto, um estágio de Iniciação Científica pode ser o melhor caminho inicial para a construção desse alicerce antes de se lançar na busca por uma posição no mercado de trabalho. Ao contrário do que muitos pensam, um estágio de Iniciação Científica, se levado à serio e bem construído, pode significar até mesmo o menor caminho entre um diploma e uma contratação por uma grande empresa.
Lembremos que, pelo menos na realidade brasileira, setores de pesquisa, com raras exceções, são práticas exclusivas de grandes empresas. Não é raro ouvirmos histórias de formandos reclamando que passaram todo o curso trabalhando em uma empresa, como estagiário, em funções que não tinham nada a ver com o curso no qual estavam se formando, ao invés de terem dedicado mais ao curso. Isso gera uma ponta de frustração.
Ao contrário, um estágio de Iniciação Científica pode oferecer, entre muitos outros benefícios: o desafio de um problema inovador e de ponta; contato com profissionais com vasto e reconhecido currículo; contato com outros colegas de Iniciação Científica de todas as regiões do Brasil e consequente troca de experiência, financiamento dos estudos e um envolvimento maior com o ambiente acadêmico, que vai além da sala de aula para atingir os laboratórios, salas de estudos e outras infra-estruturas oferecidas pela instituição. Além disso, um estágio de Iniciação Científica bem feito pode abrir as portas para futuros cursos após a conclusão da graduação, tais como: Mestrado, Doutorado e Pós-Doutorado, financiados por boas agências de fomento científico. Vale lembrar que, atualmente, alunos que possuem Iniciação Científica durante a graduação têm sido indicados para o Projeto Ciência sem Fronteiras.
Fica então o convite para conversar com um orientador na FEI. Pode-se procurar esse tipo de estágio na própria página da FEI. No entanto, aconselho enviar um e-mail para qualquer professor que tenha uma linha de pesquisa. E para aqueles que quiserem conversar mais sobre Visão Computacional, é só entrar em contato comigo.
Prof. Dr. Paulo S. Rodrigues
Grupo de Processamento de Sinais
Centro Universitário da FEI
São Bernardo do Campo, SP
sexta-feira, 9 de novembro de 2012
AS INTERFACES DE BUSCA NA WEB: O PRESENTE, O PASSADO ... E O FUTURO?
Desde tempos imemoriais, o homem civilizado tenta organizar sua
cultura e informações acumuladas ao longo de séculos. Bem antes da invenção da
imprensa já havia a preocupação de armazenamento e recuperação rápida do
conhecimento produzido em sociedades que começavam a se formar. Antes, a
produção e o controle de todo o intelecto humano era privilégio apenas de
poucos monges, sacerdotes, reis e aristocratas, indo desde a concepção das ideias,
passando pela escrita, pelo armazenamento e até a recuperação daquilo que se
produzia. Não demorou muito para alguém relacionar o desenvolvimento das
sociedades e a riqueza das nações, não somente ao legado deixado em forma de
textos, mas também à capacidade de guardá-lo e buscá-lo rapidamente. Os
benefícios do conhecimento passado pelo que se produz em forma de linguagem
impressa supera em muito aquele produzido de pais para filhos na forma da
linguagem falada, transmitida culturalmente, e é uma das principais razões do
desenvolvimento da civilização, tal como a conhecemos hoje.
Desde a sociedade como embrião, o ser humano parece ter uma
necessidade instintiva de guardar suas ideias, talvez mesmo com o intuito de
transmiti-las a outros indivíduos presentes, ou para futuras gerações, ou
talvez com o desejo de compreender-se melhor. Ao armazenar a informação
dominada, o homem prova um de seus instintos mais primitivos, sendo como um cão
que guarda seu alimento para garantir uma melhor sobrevivência futura. Mais do
que guardá-las, parece desejar organizá-las e recuperá-las sempre da maneira
eficiente, no menor espaço e tendo acesso o mais rapidamente possível.
Essa relação íntima com a informação, não somente de textos
escritos, mas também de pinturas, partituras musicais, e projetos de
engenharia, estimulou monarcas visionários à construção de bibliotecas,
universidades e escolas para ensinar seus súditos, além de financiarem talentos
como poetas, escritores e músicos, impulsionando o desenvolvimento, a organização
e o fortalecimento da cultura e do reino. Foram as nações que mais atentaram
para o controle da informação escrita que primeiro prosperaram e nos legaram o
mundo moderno como o vemos hoje.
O tipo de informação pode se modernizar, passando desde os desenhos
rupestres nas paredes de cavernas feitos pelos Neardentais, os papiros do Egito
antigo, a imprensa de Gutenberg e, finalmente, à informação digital dos dias de
hoje; mas o que sempre será o mesmo é a vontade incontrolável do homem de
produzir conhecimento que possa ser armazenado, recuperado e compreendido por
seus pares, pelo máximo de gerações futuras possíveis. E o poder de alcance
desse conhecimento deixado, depende não somente da importância que virá a ter
para a maioria dos indivíduos, mas também de como ele foi guardado, e como pode
ser facilmente encontrado, transmitido e usado por quem o acessa e o
compreende.
A era digital inaugurou apenas mais um capítulo da nossa história
íntima entre a produção do conhecimento humano com o legado das nações a seus
indivíduos, dando oportunidades jamais imaginadas a pessoas comuns, anônimas em
sua maioria, de darem vazão àquilo que todos os serem humanos, desde a
concepção, parece trazer, mesmo sem nunca darem-se conta disto, escritos em seu
DNA: a vontade de produzir informações, armazená-las em algum meio externo para
que consiga se comunicar com seus pares pelo máximo de tempo possível após a
sua morte. Não importa se a informação a ser produzida e manipulada é de cunho
familiar, cultural, governamental, científica ou artística, todas as
sociedades, modernas ou não, trazem consigo o desejo simples de se expressar.
A era digital que vivemos hoje é então nada mais do que
consequência do conhecimento acumulado e transmitido por gerações passadas.
Esses novos tempos possuem várias fases, uma consequência da outra. A primeira
foi a própria invenção do computador, concebido inicialmente para agilizar
cálculos científicos e de engenharia. A velocidade com que transmitia dados
internamente através de circuitos logo foi aproveitada para transmitir pacotes
externamente entre máquinas. Assim, em 1969, dois computadores na Universidade
da Califórnia começaram a comutar pacotes, nascia assim a segunda fase da era
digital: a internet.
O crescimento surpreendente da internet em níveis mundiais trouxe
a necessidade de interfaces mais amigáveis para conectar usuários menos
familiarizados com a rede. Então, em 6 de agosto de 1991, Tim Berner-Lee postou
um resumo do uso de ferramentas para usar um sistema de navegação na internet,
que ele mesmo havia escrito, e deixou armazenado num computador NeXTcube, usado
por ele no CERN-Organização Europeia para Investigação Nuclear (Suíça). Esse
fato marcou o nascimento do primeiro servidor da World Wide Web, e o mundo
testemunhou a inauguração da terceira fase da era digital: a plena
democratização da informação produzida pela humanidade, a WWW.
De repente, a WWW conectou o mundo inteiro, encurtou fronteiras,
aproximou culturas, criou novos mundos sem donos e sem governos, universos sem
regras e sem censuras, espaços livres onde seres humanos, não importando a
distância geográfica, se encontram e trocam informações. Parece que o mundo
utópico e compartilhado por todos, idealizado por John Lennon na canção
imagine, tomou forma, se concretizou e agora tem nome: internet. Ainda pode-se
dizer que esse mundo é ainda muito virtual, que ainda não há o “contato físico”
no sentido strictu da frase, tão necessário à essência dos conceitos das
palavras humano e sociedade. Mas será que aqueles que compartilham esse mundo
de pacotes digitais, que nasceram com seu nascimento, aceitarão o nosso mundo
físico atual do jeito que ele é, tão arraigado de todo tipo de preconceito,
censura e regras incompreensíveis, quando em suas mãos tiverem o poder de modificá-lo,
deixando-o mais parecido ao seu mundo virtual e livre de hoje? Quando isso
ocorrer, o contato físico estará então presente em sua plenitude,
materializando o melhor dos dois mundos: o virtual e o real.
Na mesma década do nascimento da WWW, nasceu também quem hoje está
provocando o nascimento da quarta fase da era digital: A geração da
conectividade, que leva a internet para casa, trabalho, ruas, salas de aula, e
está gostando cada vez mais de produzir, armazenar, divulgar e compartilhar
conhecimento. No entanto, podemos dizer que essa geração está apenas
exercitando o que, como falei antes, está escrito em seu DNA: a vontade de se
expressar. Vale dizer que o crescimento incomensurável do número de blogueiros
gravitando na blogosfera, produzindo informação, lendo, querendo ser lido e
divulgado seus pares, é um fenômeno inesperado. Atualmente, é grande o número
de empresas criadas visando somente esse tipo de ambiente. Um movimento tão
forte que forçou o aparecimento de nomes específicos para a geração de jovens
que estão altamente conectados, a chamada geração Z.
Com o advento da era da informática, seguida da internet e logo
depois da WWW e agora a era da plena conectividade, o potencial de conhecimento
humano, tanto produzido quanto acumulado cresce exponencialmente minuto a
minuto. As informações hoje não se resumem somente a textos, mas incluem também
dados multimídia. A todo momento temos à nossa disposição um tsunami de novos
textos, imagens, sons e vídeos, produzidos por pessoas comuns. Um conhecimento
tão importante quanto os dados governamentais e de todas as áreas, tais como
produzidos por médicos, engenheiros, advogados, filósofos, ou tantas quantas
forem as profissões que surgem a cada momento.
A quantidade de informação presente na Web passou a ter uma
importância fundamental, obrigando governos a debaterem e criarem, ou pelo
menos tentarem criar, leis específicas para esse meio. Interessante notar é que
a Web é um ambiente tão imprevisto quanto necessário hoje em dia. Uma demanda
que nem o mais visionário estudioso das tendências humanas poderia prever. Uma
necessidade que, ao mesmo tempo é vital para qualquer sociedade moderna, nunca
foi encontrada em nenhuma lista de demanda em tempos mesmo que recentes.
Na esteira da necessidade de organização e recuperação das
informações produzidas a cada dia, foi em meados dos anos 90 que se
popularizaram as chamas Máquinas de Buscas, ou sites especializados na
Recuperação das Informações postadas na rede. O próprio termo Máquina de Busca
foi cunhado para representar os sites cujo objetivo era produzir a informação
que alguém deseja, simplesmente escrevendo uma ou mais palavras relacionadas
com um assunto, os chamados “Termos de Busca”.
O Yahoo foi a Máquina de Busca mais popular nos anos 90. A filosofia
por de trás do seu mecanismo era, inicialmente, guardar cada página na rede
como um conjunto das palavras que mais apareciam no texto. Assim, uma
página/site era quebrada em suas unidades individuais, as palavras, e cada
palavra era armazenada ao lado do número de vezes que ela era citada na
página/site. Assim, se a palavra escola era a que mais aparecia em uma página
web, assumia-se que essa página/site falava de assuntos relacionados à escola.
Quando um usuário desejava então recuperar páginas tratando desse assunto,
conseguia recuperar a página armazenada; mas, quando desejava recuperar páginas
de assuntos relacionados, tais como livros, professores ou estudos, poderia
ficar frustrado com o resultado, caso as palavras usadas na busca não tivessem
sido justamente aquelas guardadas pela Máquina de Busca.
Esse processo de armazenamento é chamado pelos Cientistas da
Computação de indexação baseada em frequência de palavras, e cada página
armazenada é chamada de Documento. Um documento que interessa a quem faz a
busca é chamado de Documento Relevante. Hoje em dia, o conceito de documento se
expandiu para qualquer tipo de informação multimídia que se queira buscar.
Assim, um arquivo de música mp3, por exemplo, é um documento, e, quando você
requisita uma música e a Máquina de Busca fornece a você exatamente as músicas
que deseja, diz-se que os documentos recuperados foram relevantes. Quanto mais
documentos relevantes a Máquina traz o mais rapidamente possível, mais
eficiente ela é, e consequentemente mais popular se torna.
No final da década de 90, uma empresa na Califórnia percebeu as
dificuldades que os usuários tinham para encontrar documentos relevantes,
ficando muitas vezes frustrados com os resultados. Uma das razões para essas
frustrações estava na complexidade das Interfaces de Buscas, muitas vezes
complicadas e com informações excessivas e irrelevantes, o que dificultava a
comunicação homem-computador. Essa empresa, batizada de Google, teve a ideia de
fazer uma interface de busca rápida e simples, onde aparece apenas uma caixa de
texto, onde o usuário mais leigo poderia digitar o termo de busca sem se
preocupar com mais nada. O resultado foi a migração em massa de usuários da Web
para o Google, que hoje domina o mercado de Recuperação de Informação na internet.
Mas a interface com o usuário ainda é o gargalo das Máquinas de
Busca mais modernas. Mesmo com o desenvolvimento de interfaces consideradas
inteligentes, que tentam até “adivinhar” as necessidades dos usuários, é
incrível que ainda é pequeno, em relação à população mundial, o número de
pessoas que conseguem lidar com as interfaces do Google e que ficam plenamente
satisfeitas com suas buscas. Pense em quantas vezes você digitou uma palavra no
Google e o gigante da internet no mundo de hoje não conseguiu deixá-lo
satisfeito em relação ao que você esperava que viesse como resposta. Com
certeza não foram poucas as vezes, mesmo para usuários experientes.
Infelizmente, o número de documentos relevantes ainda é uma quantidade
proporcional às habilidades de se lidar com a máquina. Em outras palavras,
ainda falta muito para que uma Máquina de Busca consiga realmente “entender” as
necessidades de seus milhões de usuários cada vez mais exigentes e menos
pacientes no mundo todo.
Uma das razões que fazem com que as Máquinas respondam com
documentos não-relevantes é que, por de trás da interação homem-máquina, o
mecanismo de busca é, na verdade, relativamente simples comparado com a
complexidade do problema, e não leva em conta estruturas linguísticas
importantes da linguagem humana. Por exemplo, ao digitar um termo de busca como
a palavra América, o que a Máquina tem que devolver depende do contexto em que
essa palavra ocorre. No contexto geográfico, por exemplo, um documento
retornado poderia ser O Mapa da América, mas no contexto futebolístico, poderia
ser O Time do América. Então, um resultado plenamente satisfatório depende do
contexto e, atualmente, o usuário deve fornecer também o contexto correto, caso
contrário, poderá ficar frustrado com o resultado.
Informações linguísticas são a chave para o sucesso das Máquinas
de Busca futuras, e estão relacionadas às informações semânticas de nossa
linguagem. O significado semântico de uma palavra, dependendo do contexto em
que ela aparece, pode mudar radicalmente, e a Máquina ainda é incapaz
atualmente de lidar plenamente com informações semânticas.
Quando se fala em semântica, uma palavra exaustivamente repetida
na nossa infância por nossas professoras de língua portuguesa, podemos
relacionar com significado, compreensão, eloquência, transmissão de ideias, o
que o texto quer transmitir como verdadeira informação. É algo puramente
subjetivo, que tem a ver com as experiências de cada um. Dois indivíduos
diferentes podem ter compreensões semânticas de um texto ou palavra
completamente diferentes e corretos, dependendo do contexto que cada indivíduo
enxerga a palavra ou frase. Então, a compreensão da informação escrita (ou
semântica de um texto) vai muito além das palavras que ali estão contidas, e
depende também de muitas outras informações, possivelmente imagens, sons,
cheiros, e muitos outros sentidos humanos relacionados às palavras que os
descrevem e usados finalmente para a compreensão. Então, uma Máquina de Busca
conseguirá trazer um documento relevante para seu usuário caso considere o
contexto correto da informação passada do usuário para máquina. A máquina deve
conseguir manipular as diversas informações contextuias, muitas delas ainda
incipientes em forma de pesquisas científicas, como reconhecimento de imagens.
Estas, particularmente, quase sempre profundamente relacionadas a textos.
Mas guardar informações contextuais não é uma questão somente de
entender esse processo cognitivo humano, mas também é uma questão de espaço
físico de mídia e criação de um complicado modelo matemático de maneira que
consigamos prever e simular as reações na máquina. Um campo de pesquisa atual
que tenta desenvolver esses modelos é o chamado Teoria das Redes Complexas, que
propõe o estudo de grandes sistemas através da representação do
inter-relacionamento entre os elementos fundamentais desses sistemas. Por
exemplo, a WWW é uma Rede Complexa, onde os sites são os elementos fundamentais
e os sites para onde eles apontam, os chamados links, indicam relacionamentos.
Na linguagem científica, um elemento fundamental é chamado de nó e um
relacionamento é chamado de aresta. Assim, na WWW, uma página ou site é um nó e
os links são as suas arestas, formando uma rede complexa gigantesca, difícil de
armazenar em um só computador e consequentemente difícil de estudar. Mesmo
assim, várias teorias são propostas e a cada dia é maior o número de Cientistas
da Computação que acreditam que as informações contextuais representadas, não
só por páginas de textos, mas também por qualquer tipo de mídia, podem ser
representadas e estudadas como um conjunto de nós e arestas em uma grande Rede
Complexa. Entender esse relacionamento é a base para a construção de máquinas
que realmente saibam lidar com contextos.
Um tipo de informação importante nesse tipo de estudo são os
chamados clusters, que são conjuntos de nós com características similares entre
si, tais como as redes sociais. Estudar como os clusters se formam e se
inter-relacionam é um dos maiores desafios das pesquisas em Redes Complexas. Um
tipo de estudo que consome recursos de tempo, espaço em disco, memória
computacional, processamento e muitas, muitas aspirinas para os pesquisadores.
O futuro então do gerenciamento das informações humanas depende do
controle pleno de todas as características que envolvem a semântica de um
documento, seja ele uma simples página web de textos, sons, imagens ou vídeos.
Para manipular toda essa informação, é fácil ver que não pode ser somente
através de teclado e mouse; devem ser envolvidas também informações multimídia
e dispositivos avançados para uma maior interação homem-máquina. Um ambiente
onde possamos não somente mergulhar para ler, escrever, ouvir e ver imagens e
vídeos, mas também sentir o toque em objetos e, melhor seria, o toque entre as
pessoas envolvidas, através de dispositivos que atualmente são chamados de
sistemas hapticos, os quais permitem a sensação de interação física com o
ambiente. Tais sistemas, ainda em fase embrionária de desenvolvimento, anunciam
talvez uma quinta fase da era digital: a fase dos sistemas hapticos.
Hoje, ao abrirmos um site de relacionamentos, somos os homens de Neardental
de nosso tempo “tentando” nos comunicar com nossos pares e deixando legados
primitivos para as gerações futuras. Nossas cavernas são os sites, as paredes
onde postamos informações são as páginas da Web, e a ferramenta de expressão se
chama computador.
domingo, 17 de junho de 2012
Projetos de TCC 2012-II
Pezados, faz tempo que eu não posto nada aqui. É que eu não tinha nenhuma "grande" novidade pra apresentar a vocês. Hoje vale a pena mostrar como ficaram os três trabalhos de TCC que eu orientei esse semestre. Ficaram Show!! Assim, estou postando os três vídeos de divulgação. Todos eles serão apresentados pelos alunos AO VIVO na próxima quinta-feira, dia 21/06/2012, durante a XX EXPOCOM no Ginásio de Esportes da FEI, de 19:00 às 22:00 hs. Lá, vocês terão a oportunidade de conhecer meus alunos e perguntar diretamente a eles como fizeram o projeto. Tem também um Coquetel na faixa e podem levar familiares. Vale a pena conferir. A seguir, mostro os videos de cada trabalho:
1) Reconhecimento de Gestos. Esse trrabalho tem o mérito de se basear em um teoria inédita: Linguagens Regulares para reconhecimento de movimentos, proposto pelo meu aluno de Doutorado do ITA (e amigo e colega de trabalho) Monael. Foi a primeira vez que vi uma Tese de Doutorado, antes mesmo de ser defendida, dar origem a uma aplicação. Me deixou muito orgulhoso.
2) Reconhecimento de Logo Marcas: Esse aqui faz o reconhecimento de logo marcas em jogos de futebol. O resultado foi melhor do que o esperado. Os alunos fizeram em tempo recorde. Há mais de um mês da apresentação estava pronto.
3) Realidade Diminuida: Por fim, este projeto apresenta um novo conceito: Realidade Diminuida. Ao contrário da Realidade Aumentada, que inclui elementos na cena, aqui os alunos mostram que conseguem eliminar conteudo. Também, o Johonnie, que fez o video, mostrou que sabe apresentar seu trabalho: ótima musica, excelentes exemplos.
Tenho muito orgulho de ter orientado esses três projetos, os alunos são excelentes. Espero vê-los todos na XX EXPOCOM
Paulo Sérgio
domingo, 25 de março de 2012
Caros, como prometido, ai vão os tópicos para a P1
1) Tranformações Gráficas (Translação, Rotação, Escala); Provas de Teoremas sobre Transformações, Transformadas Homogêneas
2) Sistemas de Referências
3) Curvas e Superfícies: Hermite, Bezier, Splines, Curvas Racionais, Caracteírsticas, utilidades, vantagens, desvantagens, Algoritmo de Casteljau, Descontinuidades, Convexidade, Não-Convexidade, Curvas n-dimensionais, Utilidades de Curvas e Superfícies Racionais, NURBS.
4) Cores, Sistemas de Cores RGB e HSV, aplicabilidades, limitações, vantagens, Histogramas de intensidades, Distribuição de Cores, Cálculo de Índices de entradas;
6) Câmeras, Calibração em um Sistema ideal, Calibração em um Sistema Real, Três maneiras de encontrar o valor da coordenada Z, Matrizes de projeção Perspectiva, aplicabilidade, Ambiguidade Colinear, Estereoscopia, como calcular a coordenada Z.
abraços,
Paulo Sérgio
domingo, 27 de novembro de 2011
Caros, eis ai os tópicos para a P2 de CG. Está fácil, heim!
Primeiro as dicas:
1 - Não estudem só pelos slides. Leiam de uma forma geral o artigo em inglês que eu passei sobre Massa-Mola, ele cai com certeza.
2 - Leiam com atenção o que está no livro da Aura Conci. Quem está estudando em grupo, discuta com os colegas.
3 - Nada de decorar conceitos, mas posso pedir questões que dependam de fórmulas que eu Não darei na prova.
4 - Não será necessário calculadora.
5 - Podem estudar por provas passadas, mas tentem entender e não decorar as respostas.
6 - Passo básico para tirar 5.0 na prova: estudar conscientemente TODOS os itens abaixo
7 - Além do passo básico (para tirar mais que 5.0): entender mais afundo cada assunto, saber todas as equações e lembrar das discussões em sala.
CONCLUSÃO: quem só vai decorar os slides, está arriscando tirar no máximo 5.0. É muito arriscado.
1) Iluminação
1.1 - Tipos de Iluminação
1.2 - Modelos de Iluminação
1.3 - Modelo de Gouraud
1.4 - Modelo de Phong
2) Triangulação
2.1 - Triangulação de Delauney
2.2 - Qualidade das Triangulações
2.3 - Equação que relaciona triangulos e convex hull
2.4 - Algoritmos de construção de triangulação
2.5 - Complexidade dos algoritmos
2.6 - Estrutura de dados dos algoritmos de triangulação
3) Reconstrução 3D
3.1 - Objetivo
3.2 - Limitações
3.3 - Algoritmo Marching Cubes
4) Animação de Tecidos
4.1 - Modelos físicos para animação
4.2 - Sistema de animação
4.3 - Limitações físicas que impactuam na animação
4.4 - Algoritmos para animação de tecidos
5) Simulação de Fluidos com SPH
5.1 - Idéia
5.2 - Kernel
5.3 - Limitações
5.4 - Vantagens
5.5 - Utilidade
5.6 - Implementação Prática
Bons estudos,
[[]]'s
PS
Primeiro as dicas:
1 - Não estudem só pelos slides. Leiam de uma forma geral o artigo em inglês que eu passei sobre Massa-Mola, ele cai com certeza.
2 - Leiam com atenção o que está no livro da Aura Conci. Quem está estudando em grupo, discuta com os colegas.
3 - Nada de decorar conceitos, mas posso pedir questões que dependam de fórmulas que eu Não darei na prova.
4 - Não será necessário calculadora.
5 - Podem estudar por provas passadas, mas tentem entender e não decorar as respostas.
6 - Passo básico para tirar 5.0 na prova: estudar conscientemente TODOS os itens abaixo
7 - Além do passo básico (para tirar mais que 5.0): entender mais afundo cada assunto, saber todas as equações e lembrar das discussões em sala.
CONCLUSÃO: quem só vai decorar os slides, está arriscando tirar no máximo 5.0. É muito arriscado.
1) Iluminação
1.1 - Tipos de Iluminação
1.2 - Modelos de Iluminação
1.3 - Modelo de Gouraud
1.4 - Modelo de Phong
2) Triangulação
2.1 - Triangulação de Delauney
2.2 - Qualidade das Triangulações
2.3 - Equação que relaciona triangulos e convex hull
2.4 - Algoritmos de construção de triangulação
2.5 - Complexidade dos algoritmos
2.6 - Estrutura de dados dos algoritmos de triangulação
3) Reconstrução 3D
3.1 - Objetivo
3.2 - Limitações
3.3 - Algoritmo Marching Cubes
4) Animação de Tecidos
4.1 - Modelos físicos para animação
4.2 - Sistema de animação
4.3 - Limitações físicas que impactuam na animação
4.4 - Algoritmos para animação de tecidos
5) Simulação de Fluidos com SPH
5.1 - Idéia
5.2 - Kernel
5.3 - Limitações
5.4 - Vantagens
5.5 - Utilidade
5.6 - Implementação Prática
Bons estudos,
[[]]'s
PS
sábado, 1 de outubro de 2011
Prova P1 com Gabarito
Prezados, eis aqui a prova P1 de CG com gabarito. Estou tentando corrigir exatamente agora, se o sono deixar.
Boa sorte.
Prova de CG P1 30/09/2011
Boa sorte.
Prova de CG P1 30/09/2011
Assinar:
Postagens (Atom)