Navegando por Palavras-chave "redução de conjunto de dados"
Agora exibindo 1 - 1 de 1
Resultados por página
Opções de Ordenação
- ItemAcesso aberto (Open Access)Enhancing artificial neural networks for smarter applications on low-cost resource-constrained microcontrollers(Universidade Federal de São Paulo, 2024-03-21) Nascimento, Alexandre [UNIFESP]; Basgalupp, Márcio [UNIFESP]; Melo, Vinicius; http://lattes.cnpq.br/5205741481605855; http://lattes.cnpq.br/4922142296922435A convergência da Inteligência Artificial (IA) com a Internet das Coisas (IoT), AIoT, torna os dispositivos mais capazes em áreas como saúde, cidades inteligentes e agricultura, desempenhando um papel crucial na promoção de práticas sustentáveis e na melhoria dos esforços de conservação ambiental. No entanto, a incorporação da IA em nós computacionais de borda da IoT apresenta desafios, como a necessidade de microcontroladores superiores, que aumentam os custos e impedem soluções em larga escala. Esta tese propõe novas abordagens para lidar com três lacunas principais no uso de redes neurais artificiais (ANN, do inglês Artificial Neural Networks) em dispositivos de borda baseados em microcontroladores de baixo custo. A primeira lacuna é que as estratégias existentes para executar ANN em dispositivos de borda frequentemente resultam em acurácia reduzida e ainda exigem microcontroladores poderosos. A segunda lacuna é que os grandes conjuntos de dados necessários para treinar ANN aumentam o custo de retreino e tornam qualquer iniciativa de retreino em dispositivos de borda inviável. Finalmente, a execução de aplicacões utilizando ANN em dispositivos de borda é limitada devido à sua capacidade computacional restrita. Para abordar essas lacunas, esta tese propõe novas estratégias de treino e sintonia fina de ANN para melhorar a precisão de pequenas ANNs. As estratégias de treino propostas se baseiam na troca de otimizadores de treinamento e de pequenos sub conjuntos de dados derivados do conjunto original. Com isso, se foi possível alcançar qualidade semelhante à obtida com conjuto de dados maiores, mas utilizando conjuntos de dados menores. Por exemplo, em um experimento, foi possível atingir 80% de acurácia com apenas 52% dos dados utilizados num treino convencional. Além disso, propõe-se uma técnica para fazer a sintonia fina da ANN e adaptá-la à ANN para executar em microcontroladores de baixo-custo (ex: 8 bits), permitindo desempenho às vezes superior em comparação com benchmarks em processadores mais poderosos. Neste trabalho, um total de 16 hipóteses foram formuladas e, para testá-las, um total de 7,392,380 ANNs foram treinadas e avaliadas em 9 datasets distintos. Os resultados contribuem para o desenvolvimento de ANNs mais leves e melhores para dispositivos de borda menos poderosos, bem como criam uma agenda de pesquisa sobre a mistura de otimizadores para o treinamento de ANNs. Este trabalho estabelece o primeiro benchmark de IA para microcontroladores de 8 bits compatíveis com a plataforma Arduino.