Abstrato

Data Mining 2016: Alinhamento e convergência da descoberta de conhecimento e HPC-Thomas Sterling-Indiana University

Thomas Sterling

A análise de dados nas suas diversas formas expandiu-se rapidamente para interagir em domínios de aplicação científicos, industriais e sociais. Mas à medida que mais espaços problemáticos cedem a este género de computação em expansão, a procura por capacidades aumenta. Simultaneamente, os sistemas e métodos de computação de alto desempenho (HPC) estão a sofrer mudanças significativas na forma e no desempenho com a convergência assintótica com o tamanho das características dos semicondutores à escala nanométrica e, portanto, o fim da lei de Moore, mesmo com o desempenho em exaescala previsto para os primeiros anos da próxima década. Historicamente, estes dois domínios de processamento são em grande parte independentes, mas agora um consenso crescente está a uni-los, alinhando as suas respectivas modalidades e catalisando uma convergência sinérgica. Uma premissa importante, a Ordem Executiva Presidencial que resultou na Iniciativa Nacional de Computação Estratégica, estipula que a fusão de dados massivos e computação intensiva numérica seja um constituinte da carta nacional de exaescala. Esta apresentação descreverá as muitas mudanças na arquitetura do sistema e nas metodologias operacionais que serão necessárias para responder simultaneamente aos desafios do topo da lei de Moore e das abordagens de processamento de grafos, potencialmente dinâmicas, que irão aumentar a computação mais convencional orientada a vetores de matrizes. Discutirá a provável importância da gestão adaptativa dinâmica de recursos e do agendamento de tarefas, essenciais para melhorias drásticas na escalabilidade e na eficiência da computação em exaescala, e a forma como estas mudanças serão aplicadas à descoberta de conhecimento. Para responder às atuais questões científicas cada vez mais complexas e com uso intensivo de dados em ciências experimentais, observacionais e computacionais, estamos a desenvolver métodos em três áreas de I&D inter-relacionadas: (i) Estamos a criar novos métodos escaláveis ??de análise de dados capazes de serem executados em plataformas computacionais de grande escala para responder a linhas cada vez mais complexas de investigação científica. (ii) Os nossos novos padrões de design computacional para os principais métodos de análise ajudarão os investigadores científicos a tirar o máximo partido das tendências em rápida evolução da tecnologia computacional, como o aumento de núcleos por processador, a memória mais profunda e as hierarquias de armazenamento e as plataformas computacionais mais complexas. Os principais objetivos são o elevado desempenho e a portabilidade entre plataformas computacionais DOE. (iii) Ao combinar métodos de análise e processamento em pipelines de dados para utilização em plataformas HPC de grande escala – independentes ou integrais a um fluxo de trabalho científico mais amplo – estamos a maximizar as oportunidades de análise de dados científicos utilizando uma coleção diversificada de ferramentas de software e recursos computacionais . Apesar do tremendo progresso feito na imagiologia biológica que rendeu tomogramas com resoluções cada vez mais elevadas, a segmentação dos tomogramas celulares em organelos e proteínas continua a ser uma tarefa desafiante. A dificuldade é mais extrema no caso da tomografia crioelectrónica (crio-ET),onde as amostras exibem um contraste inerentemente baixo devido à dose limitada de eletrões que pode ser aplicada durante a geração de imagens antes que ocorram danos por radiação. Os tomogramas têm uma baixa relação sinal-ruído (SNR), bem como artefactos de falta de cunha causados ??pela gama limitada de inclinação da amostra que é acessível durante a geração de imagens. Embora a SNR possa ser melhorada através da aplicação de métodos de melhoramento de contraste e de deteção de bordos, estes algoritmos também podem gerar falsa conectividade e artefactos adicionais que degradam os resultados produzidos pelos programas de segmentação automática. Se os desafios puderem ser ultrapassados, as abordagens de segmentação automática serão de grande interesse. No entanto, a concretização desta visão é hoje impedida pela complexidade do espécimen e pelas limitações de SNR acima descritas. Os resultados de aprendizagem automática de última geração não são geralmente adequados para a mineração profunda; na verdade, a situação na crio-ET é exatamente o oposto: as segmentações da mais alta qualidade são produzidas manualmente, representando níveis de esforço que variam de dias a dias meses. As ferramentas de segmentação poderiam ser bastante melhoradas se fossem construídas tendo em conta o conhecimento prévio, minimizando a sensibilidade ao ruído e às falsas ligações. Tanto quanto sabemos, não existem métodos que utilizem informação contextual específica sobre estruturas biológicas como restrições à segmentação. Também não existem abordagens que incorporem a aprendizagem ativa com feedback do utilizador, o que orientaria quanto à correção da segmentação. Estamos a desenvolver novas técnicas de aprendizagem automática para facilitar a segmentação, extração, visualização e anotação de subestruturas biológicas em tomogramas 3D obtidos a partir de diversas modalidades de imagem.Também não existem abordagens que incorporem a aprendizagem ativa com feedback do utilizador, o que orientaria quanto à correção da segmentação. Estamos a desenvolver novas técnicas de aprendizagem automática para facilitar a segmentação, extração, visualização e anotação de subestruturas biológicas em tomogramas 3D obtidos a partir de diversas modalidades de imagem.Também não existem abordagens que incorporem a aprendizagem ativa com feedback do utilizador, o que orientaria quanto à correção da segmentação. Estamos a desenvolver novas técnicas de aprendizagem automática para facilitar a segmentação, extração, visualização e anotação de subestruturas biológicas em tomogramas 3D obtidos a partir de diversas modalidades de imagem.

Biografia:

Thomas Sterling é professor de Engenharia de Sistemas Inteligentes na Escola de Informática e Computação da Universidade de Indiana. Desempenha as funções de Cientista Chefe e Diretor Associado do Centro de Investigação em Tecnologias de Escala Extrema (CREST). Depois de receber o seu doutoramento no MIT em 1984 como Hertz Fellow, dedicou-se a áreas de investigação associadas a Estruturas e Semântica de Sistemas de Computação Paralela. É coautor de 6 livros e tem 6 patentes. Foi o vencedor do Prémio Vanguarda 2013.

Isenção de responsabilidade: Este resumo foi traduzido usando ferramentas de inteligência artificial e ainda não foi revisado ou verificado

Indexado em

Google Scholar
Academic Journals Database
Open J Gate
Academic Keys
ResearchBible
CiteFactor
Electronic Journals Library
RefSeek
Hamdard University
Scholarsteer
International Innovative Journal Impact Factor (IIJIF)
International Institute of Organised Research (I2OR)
Cosmos

Veja mais