Aisha Al Owais
Vivendo no século XXI, a arma mais poderosa da humanidade é a tecnologia. O campo da tecnologia no qual temos interesse é a computação, especificamente a IA (IA). Como o nome sugere, a IA consiste em transformar os dispositivos em agentes inteligentes que executam ações com base no ambiente que percecionam. São também flexíveis em termos de ajuste dos seus objetivos – o que devem tentar fazer e também de ajuste das suas ações consoante o ambiente em mudança. O que torna os agentes de IA peculiares é a sua capacidade de aprender e recordar os seus erros. Além disso, o Machine Learning (ML) é uma das aplicações de IA que permite aos sistemas descobrir automaticamente, melhorar através da experiência e ajustar as suas ações sem intervenção humana. Isto leva-nos ao Deep Learning (DL), um subcampo substituto do ML preocupado com algoritmos inspirados na estrutura e no desempenho do cérebro humano, denominados redes neuronais artificiais. Possui redes capazes de aprender dados obtidos a partir de dados instruídos ou não rotulados; por isso, também é conhecida como Deep Neural Network (DNN). Todos estes termos nos levam ao que mais nos interessa, as Redes Neurais Convolucionais (CNNs), que é uma rede neural profunda que está particularmente adaptada à parede para classificar imagens, no nosso caso, para classificar imagens de meteoritos. A classificação de imagens é um problema de aprendizagem supervisionada: definir um conjunto de classes alvo (objetos a identificar nas imagens) e treinar um modelo para os reconhecer usando fotos de exemplo rotuladas. Os primeiros modelos de visão computacional dependiam de dados brutos de pixéis como entrada para o modelo. No entanto, como mostra a Figura 2, os dados brutos de pixéis por si só não fornecem uma representação suficientemente estável para abranger as inúmeras variações de um objeto captado numa imagem. A posição do objeto, o fundo atrás do objeto, a iluminação ambiente, o ângulo da câmara e o foco da câmara podem produzir flutuações nos dados brutos dos pixéis; estas diferenças são suficientemente significativas para que não possam ser corrigidas tomando médias ponderadas dos valores RGB dos pixéis. Para modelar objetos de forma mais flexível, os modelos clássicos de visão computacional adicionaram novas características derivadas de dados de pixéis, como histogramas de cores, texturas e formas. A desvantagem desta abordagem foi que a engenharia de recursos se tornou um verdadeiro fardo, uma vez que havia muitas entradas para ajustar. Para um classificador de gatos, que cores foram mais relevantes? Quão flexíveis devem ser as definições de forma? Como as características precisavam de ser ajustadas com tanta precisão, a construção de modelos robustos era bastante desafiante e a precisão era prejudicada. Os carros autónomos são um ótimo exemplo para compreender onde a classificação de imagens é utilizada no mundo real. Para permitir a condução autónoma, podemos construir um modelo de classificação de imagens que reconheça vários objetos, como veículos, pessoas, objetos em movimento, etc. Veremos mais alguns casos de utilização mais tarde neste artigo, mas existem muitas outras aplicações ao nosso redor.Utilize a secção de comentários abaixo do artigo para me dizer quais os potenciais casos de utilização que pode sugerir! Os dados são valiosos no que diz respeito aos modelos de aprendizagem profunda. O seu modelo de classificação de imagens tem muito mais hipóteses de funcionar bem se tiver uma boa quantidade de imagens no conjunto de treino. Além disso, o formato dos dados varia de acordo com a arquitetura/framework que utilizamos.
Biografia:
Aisha Al Owais concluiu o seu bacharelato em Ciência da Computação na Faculdade de Engenharia da Universidade Americana de Sharjah. Está a trabalhar como assistente de investigação no Centro de Meteoritos do Centro de Astronomia e Ciências Espaciais de Sharjah.