Abed Benaichouche
Ultimamente, a aprendizagem profunda (DL) tem vencido vários desafios na visão do PC e na IA. Nesta introdução, apresentaremos utilizações genuínas de Rede Neuronal Convencional (CNN), Rede Recorrente (RNN) e Rede Adversarial Generativa (GAN) no território de visão PC. Na introdução, mostraremos uma determinação da investigação recente que o Inception Institute of Artificial Intelligence (IIAI) está a conduzir no campo da visão do PC e da capacidade intelectual criada pelo homem. Para a CNN, apresentaremos a sua aplicação para identificação e explicação de rostos, demonstração para reconhecimento de objetos e estimativa da postura da câmara. Para os GANs, mostraremos a sua utilização para colorização de imagens e mudança de estilo de acabamento. Por fim, apresentamos uma outra metodologia para a identificação facial e super-objectivos utilizando modelos CNN e GAN. Para cada demonstração apresentamos o sistema estruturado, as suas restrições e os pontos de vista para melhorias concebíveis. Com o recente avanço nas tecnologias digitais, o tamanho dos conjuntos de dados tornou-se muito grande, no qual as técnicas tradicionais de processamento de dados e aprendizagem. de máquina não são capazes para lidar com eficácia. No entanto, analisar conjuntos de dados complexos, de alta dimensão e contaminados por ruído é um enorme desafio, e é crucial desenvolver novos algoritmos que sejam capazes de resumir, classificar, extrair informações importantes e converter -las de uma forma compreensível . Para resolver estes problemas, os modelos de aprendizagem profunda (DL) têm apresentado excelentes desempenhos na última década. Resolveu muitos problemas complexos que existiam na comunidade de IA há muitos anos. Na verdade, os modelos DL são variantes mais profundas das redes neuronais artificiais (RNAs) com múltiplas camadas, sejam lineares ou não lineares. Cada camada está ligada às camadas inferior e superior através de pesos diferentes. A capacidade dos modelos DL em aprender características hierárquicas de vários tipos de dados, por exemplo, numéricos, de imagem, texto e áudio, torna-os poderosos na resolução de problemas de reconhecimento, regressão, semi-supervisionados e não-supervisionados. Nos últimos anos, várias arquiteturas profundas com diferentes paradigmas de aprendizagem são rapidamente introduzidas para desenvolver máquinas que podem ter um desempenho semelhante ao humano ou até melhor em diferentes domínios de aplicação, tais como diagnóstico médico, carros autónomos, linguagem natural e processamento de imagens e previsão preditiva . Para mostrar até certo ponto alguns avanços recentes da aprendizagem profunda, selecionámos 14 artigos dos artigos aceites nesta revista para organizar esta edição. Com foco nos desenvolvimentos recentes nas arquiteturas DL e nas suas aplicações, classificamos os artigos desta edição em quatro categorias: (1) arquiteturas profundas e redes neuronais convencionais, (2) aprendizagem incremental, (3) redes neuronais recorrentes e (4) modelos generativos. e exemplos adversários.A rede neural profunda (DNN) é um dos modelos DL mais comuns que contém múltiplas camadas de operações lineares e não lineares. A DNN é a extensão da rede neural padrão com múltiplas camadas ocultas, que permite ao modelo aprender representações mais complexas dos dados de entrada. Além disso, a rede neural convolucional (CNN) é uma variante das DNNs, inspirada no córtex visual dos animais. A CNN contém geralmente três tipos de camadas, incluindo convolução, pooling e camadas totalmente conectadas. As camadas de convolução e pooling são adicionadas nos níveis inferiores. As camadas de convolução geram um conjunto de ativações lineares, que são seguidas por funções não lineares. Na verdade, as camadas de convolução aplicam alguns filtros para reduzir a complexidade dos dados de entrada. Em seguida, são utilizadas camadas de pooling para reduzir a amostragem dos resultados filtrados. As camadas de pooling conseguem reduzir o tamanho dos mapas de ativação transferindo-os para uma matriz mais pequena. Portanto, o pooling resolve o problema de sobreajuste, reduzindo a complexidade. As camadas totalmente conectadas estão localizadas após as camadas de convolução e pooling, para aprender representações mais abstratas dos dados de entrada. Na última camada, é utilizada uma função de perda, por exemplo, um classificador soft-max, para mapear os dados de entrada.
Biografia:
Abed Benaichouche trabalhou no Inception Institute of Artificial Intelligence, Emirados Árabes Unidos