Navegando por Palavras-chave "Aprendizado de máquina"
Agora exibindo 1 - 20 de 26
Resultados por página
Opções de Ordenação
- ItemAcesso aberto (Open Access)Análise comparativa das metodologias de Markowitz, Kelly e Aprendizado por Reforço em Carteiras de Investimentos - uma abordagem computacional(Universidade Federal de São Paulo, 2021-03-02) Franchi, Bruno Ogata [UNIFESP]; Sato, Renato César [UNIFESP]; http://lattes.cnpq.br/6095929487408447; http://lattes.cnpq.br/9788485222577723Aprendizado de Máquina é o campo de estudo da inteligência artificial que estuda a descoberta automatizada de padrões e vem sendo amplamente utilizado nas pesquisas acadêmicas e nos mais diversos setores da indústria (JEWELL, 2019).A abordagem por aprendizado por reforço é uma das maneiras de se reconhecer padrões, especificamente em cenários em que não se é possível o treinamento para todas as ocasiões e o agente computacional deve aprender com sua própria experiência, (SUTTON; BARTO, 2020). No mercado financeiro a busca por maximizar a lucratividade de uma carteira de investimentos é o maior desafio dos investidores. Diferentes abordagens já foram utilizadas para análise do problema, como a divisão do risco em um sistema fechado por meio da diversificação dos ativos, como proposto por Markowitz (MARKOWITZ, 1952), ou por meio de abordagem probabilística, como muitos pesquisadores aplicam através do sistema científico de apostas proposto por John Kelly (MACLEAN; ED, 2006). O objetivo principal deste trabalho de conclusão de curso foi realizar o desenvolvimento das diferentes abordagens de otimização de carteira de investimentos propostos por Markowitz, Kelly e aprendizado por reforço. Uma análise comparativa dos retornos financeiros e computacional dos resultados obtidos, buscando verificar o desempenho por inteligência artificial frente as outras estratégias. Os algoritmos de DDPG e PPO foram utilizados para treinamento dos modelos e a implementação do projeto foi com a linguagem de programação Python (ROSSUM; DRAKE, 2009) e de suas bibliotecas disponíveis em código aberto. Séries históricas das ações presentes na Bolsa de Valores de São Paulo entre os anos de 2010 e 2019 foram coletadas através da biblioteca yahooquery (GUTHRIE, 2020) e utilizadas para execução dos experimentos. Os resultados obtidos mostram que a abordagem por Aprendizado por Reforço é uma estratégia eficiente para alocação de carteiras em um ambiente dinâmico como o do mercado de renda variáveis, atingindo retorno acumulado de 151,7% entre o período simulado, Junho de 2017 a Dezembro de 2019. Foi a segunda metodologia mais custosa em termos de processamento para a construção de uma única carteira, enquanto Kelly obteve os resultados mais rápidos, por volta de 14 segundos e a abordagem modificada de Markowitz obteve contabilizações de até 4000 segundos de processamento.
- ItemAcesso aberto (Open Access)Análise de desempenho em algoritmos de aprendizado de máquina treinados em dados com viés(Universidade Federal de São Paulo, 2021-02-25) Broder, Renata Sendreti [UNIFESP]; Berton, Lilian [UNIFESP]; http://lattes.cnpq.br/9064767888093340; http://lattes.cnpq.br/0293407623747813A utilização da Inteligência Artificial através do Aprendizado de Máquina na vida cotidiana é uma realidade, trazendo inúmeras possibilidades e benefícios à sociedade. No entanto, uma vez que deu-se espaço para que algoritmos que aprendem tomassem decisões, ampliou-se também a gama de questões éticas relacionadas. São muitas as denúncias de aplicações de Aprendizado de Máquina que identificam algum tipo de viés, desfavorecendo ou favorecendo algum grupo, com possibilidade de causar danos a uma pessoa real. O presente trabalho tem o objetivo de trazer luz à existência dos vieses, analisando e comparando o comportamento de diferentes algoritmos de aprendizado ao serem treinados utilizando dados enviesados.
- ItemAcesso aberto (Open Access)Análise de sentimentos dos usuários do Twitter sobre a eleição presidencial de 2022 no Brasil(Universidade Federal de São Paulo, 2023-01-20) Santos, Daiana Kathrin Santana [UNIFESP]; Berton, Lilian; http://lattes.cnpq.br/9064767888093340; http://lattes.cnpq.br/1892442193378694O crescimento da internet e da comunicação por meio das redes sociais, facilitou a obtenção de informações sobre o que outros indivíduos estão pensando e qual a opinião deles para determinado assunto, porém, uma pessoa manualmente não consegue analisar todos os comentários na rede sobre certo tema, sendo necessário o uso de tecnologias, computadores e algoritmos para auxiliar na análise dos dados. Diante disso, este trabalho tem o objetivo de coletar, processar e classificar os sentimentos de uma amostra de textos publicados no Twitter, em Português, sobre as eleições presidenciais no Brasil em 2022, utilizando o processo de Descoberta de Conhecimento em Base de Dados para analisar os comentários e conseguir classificar os tweets entre opiniões positivas, neutras e negativas. Desse modo, predizer qual candidato tem uma maior aceitação/rejeição por parte dos brasileiros nas eleições de 2022, considerando apenas os candidatos com melhores posições nas pesquisas de intenção de votos. De acordo com os resultados obtidos empregando um dataset balanceado no treinamento dos algoritmos, o candidato com maior porcentagem de sentimentos positivos foi Jair Bolsonaro, sentimentos neutros foi Luiz Inácio Lula da Silva e sentimentos negativos foi Ciro Gomes.
- ItemAcesso aberto (Open Access)Análise de sentimentos em críticas de filmes por meio de algoritmos clássicos de aprendizado de máquina(Universidade Federal de São Paulo, 2019-12-15) Bellini, Ana Júlia de Oliveira; Berton, Lilian; http://lattes.cnpq.br/9064767888093340A análise de sentimentos envolve o tratamento computacional de opiniões, emoções e subjetividade presentes em um texto, sendo objeto de estudo da área de processamento de linguagem natural. Atualmente, diversos espectadores, quando desejam assistir a algum filme em sua casa ou no cinema, recorrem às redes sociais ou a outros sites especializados, em busca de críticas sobre uma determinada obra, onde estas opiniões possuem forte influência sobre a decisão do usuário de assistir, ou não, a um determinado filme. Tais opiniões vêm sendo cada vez mais utilizadas na obtenção de feedback diretamente do público-alvo durante os últimos anos, com a aplicação da análise de sentimentos. Portanto, o objetivo deste trabalho é realizar um estudo aprofundado de técnicas de processamento de texto e aprendizado de máquina, empregadas em análises de sentimentos vistas na literatura, de forma a analisar quais são as mais adequadas para a tarefa de extrair emoções de críticas de filmes.
- ItemAcesso aberto (Open Access)Análise de trade-off entre acurácia e medidas de igualdade algorítmica em aprendizado de máquina supervisionado(Universidade Federal de São Paulo, 2023-12-13) Silva, Bruno Pires Moreira [UNIFESP]; Berton, Lilian [UNIFESP]; http://lattes.cnpq.br/9064767888093340; http://lattes.cnpq.br/5759648592924614Métodos de inteligência artificial tem sido cada vez mais difundidos na sociedade atual trazendo grandes ganhos em diversas áreas da saúde, como auxílio ao diagnóstico, triagem de pacientes, teleatendimento, etc. Porém, diferentes problemas também acabaram surgindo como consequência de seu uso relacionados ao viés dos algoritmos. O tratamento desses problemas é um grande desafio na modernidade, ainda mais com abordagens com menores margens de erro e dados para treinamento mais diversos. O trabalho em questão busca entender as variações causadas por algoritmos de aprendizado de máquina que promovem o treinamento dos modelos aplicando abordagens de justiça e equidade, utilizando bibliotecas como o Fairlearn, da Microsoft e o IBM AI Fairness 360 e os conjuntos de dados MIMIC III, que conta com observações de pacientes ingleses internados em UTIs. Nesse cenário, foram tesados alguns modelos de aprendizado de máquina, como a rede multilayer perceptron, support vector machine e o gradient boosting. Foi realizada uma análise do impacto nas métricas de equidade e na acurácia quando as abordagens de mitigação de vieses foram empregadas. Com isso, notamos que técnicas de pós-processamento geraram o menor impacto na acurácia dos modelos.
- ItemAcesso aberto (Open Access)Aplicabilidade da inteligência artificial utilizando dados de tomografia corneana por método scheimpflug para identificação de ceratocone(Universidade Federal de São Paulo, 2022) Milhomens Filho, José Arthur Pinto [UNIFESP]; Hazarbassanov, Rossen Mihaylov [UNIFESP]; http://lattes.cnpq.br/8094321275686016; http://lattes.cnpq.br/2935002397108247Objetivo: Determinar novas abordagens de inteligência artificial aplicadas sobre dados de tomografia do segmento anterior para predizer e detectar doenças corneanas como o ceratocone e seus diferentes estágios da doença. Métodos: Foram avaliados dados de 5881 olhos (1726 olhos normais, 345 olhos com ceratocone subclínico, 1380 olhos com ceratocone clínico inicial, 1800 olhos com ceratocone moderado, 630 olhos com ceratocone avançado), utilizando tomografia de córnea por método Scheimpflug. Foram implementados vários métodos de aprendizados de máquina para detectar ceratocone a partir de parâmetros de elevação, topografia e paquimetria da córnea. Resultados: Os parâmetros de elevação forneceram o parâmetro de área sob a curva (AUC) mais alto de 0.99 na detecção de casos de ceratocone e uma AUC de 0.88 na detecção de diferentes níveis de gravidade ao usar apenas três parâmetros corneanos mais promissores, incluindo raio de curvatura mínimo, excentricidade da córnea e asfericidade da córnea. A abordagem com técnica híbrida de associação de métodos de aprendizado computacional determinou otimização dos resultados de detecção de ceratocone em relação aos métodos aplicados isoladamente, alcançando acurácia de 97,03% na classificação em 2 classes e de 71,02% na classificação em 3 classes. Conclusões: Os algoritmos desenvolvidos podem distinguir olhos Ceratocone de olhos saudáveis com alta precisão. Os oftalmologistas necessitam de um cenário mais confortável de introdução no mundo da inteligência artificial, redirecionando suas preocupações de serem substituídos pela máquina para se tornarem protagonistas nesse padrão inovador de atendimento.
- ItemAcesso aberto (Open Access)Aplicação de aprendizado de máquina em exames de ECG - Holter para a detecção de dispositivos cardíacos implantáveis e arritmias.(Universidade Federal de São Paulo, 2023-01-05) Santos, Paulo Henrique Marques de Souza Correia dos [UNIFESP]; Berton, Lilian [UNIFESP]; http://lattes.cnpq.br/9064767888093340Cardiac arrhythmias affect a large portion of the world’s population, causing more than 300,000 deaths a year in Brazil. Several arrhythmias can be detected by electrocardiogram, making its application very important nowadays. This work applied the Support Vector Machine (SVM), Naive Bayes, k-Nearest Neighbors (kNN), Decision Tree and Multilayer Perceptron (MLP) methods to detect cardiac arrhythmias and use of implantable cardiac devices, such as pacemakers and internal cardioverter defibrillators. the dataset was obtained from tables with information about the electrocardiogram. The evaluation metrics were accuracy, precision, sensitivity, specificity and F-Score. For the detection of diseases, the decision tree and multilayer Perceptron classifiers obtained better results, with F-scores of 67.7% and 74.2%, while for the detection of implantable devices the best evaluated were the decision tree and kNN, with F-scores of 91.8% and 92.8%, respectively.
- ItemAcesso aberto (Open Access)Aplicação do modelo encoder decoder LSTM para previsão de geração fotovoltaica(Universidade Federal de São Paulo, 2024-12-16) Arruda, Fernando Vasconde de [UNIFESP]; Martins, Fernando Ramos [UNIFESP]; Almeida, Marcelo Pinho; http://lattes.cnpq.br/2541127699182124; http://lattes.cnpq.br/9012359647335296; http://lattes.cnpq.br/4695805938100040; Universidade Federal de São Paulo (UNIFESP)Um dos pilares para o desenvolvimento tecnológico da sociedade moderna é a energia elétrica, cujo consumo vem crescendo com os avanços tecnológicos. Grande parte da geração de eletricidade provém de combustíveis fósseis; contudo, as fontes renováveis têm ganho destaque devido aos pactos globais que visam à redução da emissão de gases de efeito estufa com o objetivo de controlar o aumento da temperatura do planeta. O recurso solar é uma alternativa importante para essa transição energética, mas ainda existem desafios tecnológicos que precisam ser superados para ampliar sua utilização. A intermitência da geração fotovoltaica, associada às condições meteorológicas, é um dos principais desafios. Este trabalho aplicou uma metodologia de previsão de geração fotovoltaica para um horizonte de 1 a 3 horas baseada em redes neurais utilizando uma arquitetura conhecida como Encoder-Decoder Long Short-Term Memory (EDLSTM). Esse modelo é altamente eficiente para problemas conhecidos como seq2seq, onde uma sequência de dados é usada como entrada e outra sequência é gerada como saída. O funcionamento do modelo envolve dois componentes: o encoder, que comprime a sequência de entrada em um vetor de comprimento fixo, e o decoder, que descomprime esse vetor para obter a sequência de previsão. Para o treinamento, foram utilizados dados meteorológicos e a série histórica da potência do gerador fotovoltaico localizado na Universidade de São Paulo. A série histórica abrange o período de 2018 a 2022, sendo que os dados de 2018 a 2021 foram usados para treinamento e validação, enquanto os dados de 2022 foram reservados para testes. Foram considerados quatro grupos de atributos de entrada, sendo dois com variáveis atmosféricas e dois com a série histórica de potência. O algoritmo de Grid Search foi implementado para identificar os melhores hiperparâmetros para a topologia das redes. A avaliação do modelo foi realizada utilizando a Raiz do Erro Quadrático Médio (RMSE), o Erro Médio de Viés (MBE) e o Erro Absoluto Médio (MAE), normalizados tanto pela potência nominal do gerador quanto pela média da geração observada (pRMSE, pMBE e pMAE). Além disso, foi utilizado o Skill Score (SS), que compara o desempenho do modelo estudado com um modelo de persistência baseado no índice de claridade de céu claro. Os modelos que utilizaram os atributos de potência como entrada para o treinamento do modelo obtiveram melhor desempenho, com destaque para os modelos EDLSTM P, que apresentou índices de Skill Score variando entre 14,42% e 47,95%, e o EDLSTM PAZ, com índices variando entre 15,16% e 48,67%. Esses dois modelos apresentaram valores positivos de Skill Score em condições de céu claro, nublado e parcialmente nublado, para os três horizontes de previsão.
- ItemAcesso aberto (Open Access)Aprendizado de máquina no controle de qualidade na indústria farmacêutica e alimentícia(Universidade Federal de São Paulo, 2019-11-12) Lima, Felipe da Silva [UNIFESP]; Lopes, Patricia Santos [UNIFESP]; http://lattes.cnpq.br/7939687315116927O Controle de Qualidade é responsável pelas atividades referentes à amostragem, às especificações e aos ensaios de produtos acabados e de matérias primas, tendo vital importância nas indústrias farmacêuticas e alimentícias por estas lidarem diretamente com a saúde dos consumidores finais. Aprendizado de máquina é um subcampo de estudo da área de Inteligência Artificial que lida com agentes/algoritmos que podem melhorar o seu comportamento ou desempenho através dos estudos de suas próprias experiências prévias. Trabalhos recentes visam juntar os dois conceitos, apresentando novas técnicas e metodologias para melhorar em diversos aspectos o controle de qualidade nas indústrias farmacêuticas e alimentícias. Foram realizadas buscas de artigos nas bases de dados Scopus e Web of Science, utilizando os descritores quality control, machine learning, pharmaceutical, food e bacterial sendo identificados 717 estudos, dos quais foram incluídos 16 artigos completos. Desses estudos, 10 focam em análise de medicamentos e matérias primas e 6 focam em análises de alimentos. A literatura abrange diversas técnicas analíticas com diversos algoritmos de aprendizado, sendo os mais vistos a Espectroscopia Raman e FT-IR usando principalmente os algoritmos de Support Vector Machine e Redes Neurais Artificiais. Apesar de apresentarem bons dados estatísticos e baixo custo de aplicação, é de senso comum dos autores que ainda precisam ser feitos estudos mais aprofundados para tornar esses métodos realmente úteis e viáveis.
- ItemAcesso aberto (Open Access)Aprendizado de máquina no controle de qualidade nas indústrias farmacêuticas e alimentícias(Universidade Federal de São Paulo, 2019) Lima, Felipe da Silva [UNIFESP]; Lopes, Patricia Santos [UNIFESP]; http://lattes.cnpq.br/7939687315116927Quality Control is the department responsible for the activities such as sampling, specifications and test the final products and raw material, having a vital importance at the pharmaceutical and food industries, which deal directly with the health of the final customers. Machine learning is a subfield of studies in the Artificial Intelligence field, which works with agents/algorithms that can improve their behavior or performance by studying their own previous experiences. Recent studies aim at place together both concepts, presenting us new techniques and methodologies to improve the quality control in the pharmaceutical and food industries. It was searched articles at the Scopus and Web of Science databases, using the descriptors quality control, machine learning, pharmaceutical, food and bacterial resulting in 717 articles, which 16 have been fully included in this work. Of these articles, 10 focus on drugs and raw material analysis, and 6 focus on food analysis. The literature covers several analytical techniques associated with several learning algorithms, which the most seen are Raman Spectroscopy and FT-IR using the Support Vector Machine and Artificial Neural Network algorithms. Despite of showing good statistic data and low cost application, the authors agree that still need more in-depth studies to render these methods really useful and viable.
- ItemAcesso aberto (Open Access)Auxílio ao diagnóstico de covid-19 com aprendizado de máquina: um comparativo entre classificadores tradicionais e ensemble(Universidade Federal de São Paulo, 2021-02-26) Santos, Jéssica Aparecida Almeida dos [UNIFESP]; Berton, Lilian [UNIFESP]; http://lattes.cnpq.br/9064767888093340; http://lattes.cnpq.br/0890619427164391A pandemia de COVID-19 declarada em março do ano de 2020 pela OMS (Organização Mundial da Saúde) surpreendeu o mundo e desafiou o sistema de saúde de diversos países com o crescimento do número de infectados. Durante o pico da doença na Europa, a baixa incidência de infecção pelo Sars-Cov-2 na Coréia do Sul chamou atenção da comunidade internacional, visto que não muito tempo antes tal país era considerado o epicentro da pandemia fora de sua origem, na China. O protocolo de testagem em massa foi apontado como a fórmula do sucesso sul-coreano, porém, diante da alta demanda e pouca oferta dos testes diagnósticos de COVID-19 no mercado, tal estratégia mostrou-se de inviável implantação principalmente em países de grande população e com poucos recursos financeiros, como, por o exemplo, o Brasil. Em vista disso, ainda soma-se o agravante acerca da eficácia dos testes disponíveis atualmente, principalmente a do teste sorológico rápido com alta taxa de falsos negativos. Visando oferecer um método de triagem para aplicação de testes ou ser uma contraprova para os mesmos, este trabalho tem como objetivo desenvolver um modelo preditivo capaz de auxiliar na identificação da infecção por COVID-19 em pacientes suspeitos a partir de dados de exames clínicos laboratoriais, tais como o hemograma e o exame de urina. Os dados utilizados advém de três hospitais da grande São Paulo e estão hospedados no repositório COVID-19 Data Sharing/BR, um banco de dados compartilhados da FAPESP (Fundação de Amparo à Pesquisa do Estado de São Paulo). O trabalho ainda propõe um comparativo de desempenho entre algoritmos tradicionais de classificação e algoritmos ensemble para a modelagem deste problema, procedimento o qual será realizado através da comparação de métricas de avaliação de Aprendizado de Máquina.
- ItemAcesso aberto (Open Access)Avaliação de modelos neurais de aprendizado de máquina e profundo para a identificação de lesões de esclerose múltipla cerebrais em exames de ressonância magnética(Universidade Federal de São Paulo, 2024-04-11) Vital, Daniel Aparecido [UNIFESP]; Abdala, Nitamar [UNIFESP]; Moraes, Matheus Cardoso [UNIFESP]; http://lattes.cnpq.br/1854451408004051; http://lattes.cnpq.br/8132921767941082; http://lattes.cnpq.br/9953367352575096Dados estatísticos apontam que aproximadamente 2,8 milhões de pessoas em todo o mundo vivem com esclerose múltipla (EM), com cerca de 250 mil novos casos diagnosticados anualmente. A EM é uma doença autoimune degenerativa que danifica a bainha de mielina dos neurônios, prejudicando a condução do sinal elétrico e resultando em deficiências neurológicas. Embora não tenha cura, o diagnóstico precoce é crucial para iniciar tratamentos adequados, controlar surtos e melhorar a qualidade de vida dos pacientes. A ressonância magnética (RM) é comumente utilizada para investigar a doença, identificando lesões desmielinizantes no cérebro e medula espinhal. No entanto, a análise visual desses exames pode ser limitada. Estudos recentes exploram métodos de inteligência artificial para a identificação automática de lesões, buscando superar as limitações visuais, mas enfrentam desafios de acurácia e abrangência. Objetivo: Este projeto de doutorado teve como objetivo avaliar o potencial de modelos neurais de aprendizado de máquina e profundo no apoio ao diagnóstico de lesões desmielinizantes causadas por EM, especificamente na classificação de imagens de RM quanto à presença ou ausência de lesões. Métodos: Foram utilizados exames de RM ponderados em FLAIR no plano axial de multicentros, combinando métodos de pré-processamento de imagens com modelos neurais para destacar a capacidade de classificação de lesões. Seis algoritmos de aprendizado de máquina foram avaliados, Árvore de decisão, Floresta aleatória, KNN, SVM, Regressão logística e MLP, treinados com atributos extraídos de três modelos neurais pré-treinados, Inception V3, SqueezeNet e VGG-19. Resultados: Os resultados revelam que SVM, Regressão Logística e MLP, treinados com atributos de modelos neurais pré-treinados, superaram outros classificadores, alcançando precisão superior a 96% na identificação de lesões de EM. A análise indicou que o Inception V3 foi eficiente na extração de atributos, destacando o MLP como promissor, com acurácia de 98,3%, sensibilidade de 99,3% e F1-Score de 98,2. Conclusão: A combinação de modelos neurais pré-treinados com classificadores se mostrou eficaz para diagnóstico automático de lesões de EM nos exames de RM de encéfalo, sendo o modelo de classificação Inception V3 com MLP o com maior precisão e sensibilidade.
- ItemAcesso aberto (Open Access)Classificação automática em teste de toxicidade embrio-larval de ouriço-do-mar (echinometra lucunter) por meio de técnicas de aprendizado de máquinas(Universidade Federal de São Paulo, 2023-12-04) Robinson, Yasmin Mohamad [UNIFESP]; Choueri, Rodrigo Brasil [UNIFESP]; Pereira, André Luiz Vizine [UNIFESP]; http://lattes.cnpq.br/5977522212667911; http://lattes.cnpq.br/0408418557980214; http://lattes.cnpq.br/8129289263876571; Universidade Federal de São Paulo (UNIFESP)O teste de desenvolvimento embrio-larval de ouriço do mar é amplamente utilizado na ecotoxicologia. Apesar de nacional e internacionalmente padronizado, existe a possibilidade de variação na leitura dos resultados uma vez que esta é feita pelo elemento humano, cuja decisão de se uma larva apresenta desenvolvimento anômalo ou normal, em muitos casos, pode variar dependendo do observador. Por isso, entende-se vantajosa a criação de uma ferramenta de inteligência artificial que possa realizar, de maneira automática, a partir de imagens dos organismos após fixação ao final do tempo de exposição, a identificação, contagem e determinação dos indivíduos anômalos em uma amostra, o que por fim determina o nível de toxicidade desta amostra, diminuindo a ambiguidade e os erros de classificação na execução do teste. Para o presente trabalho, portanto, foram utilizadas redes neurais de aprendizado profundo apresentando a arquitetura de rede VGG-16 para a construção de dois modelos de classificação referentes ao teste de toxicidade embrio-larval de ouriços do mar capazes de distinguir 4 níveis de desenvolvimento larvais/embrionários diferentes da espécie Echinometra Lucunter e que contasse com a distinção de detritos. O modelo construído com 5 classes reportou uma acurácia global de predição de 83% na validação, enquanto o modelo montado com apenas as 4 classes de desenvolvimento larvais reportou uma acurácia de 86%, mostrando uma performance muito próxima à de especialistas humanos e superior a outro método de aprendizado de máquina empregado em trabalho publicado.
- ItemAcesso aberto (Open Access)Data augmentation via generative adversarial networks aplicado em classificação de imagens(Universidade Federal de São Paulo, 2019-12-15) Oliveira, Willian Dihanster Gomes de; Berton, Lilian; http://lattes.cnpq.br/9064767888093340"A classificação de imagens é uma das grandes áreas de aplicação do Aprendizado de Máquina. No entanto, para um bom desempenho dos algoritmos, faz-se necessária uma grande quantidade de dados, especialmente, rotulados. Diversas técnicas foram propostas para se obter mais dados via data augmentation (DA). Uma abordagem comum é aplicar Transformação de Imagens (TIs) no conjunto, gerando novas imagens a partir das imagens originais com aplicações de efeitos como corte, rotação, ruídos, etc. Uma nova abordagem é o uso das Generative Adversarial Networks (GANs) que são redes capazes de sintetizar dados artificiais a partir dos dados originais, sob um processo adversarial de duas redes neurais. Além disso, para se trabalhar com imagens, pode ser necessário representá-las por um vetor de atributos, sendo possível utilizar Redes Neurais Convolucionais (CNNs) para extrair suas características. Portanto, o objetivo deste trabalho é analisar essas duas abordagens de data augmentation aplicadas na classificação de imagens e avaliar diferentes CNNs como extratores de características."
- ItemAcesso aberto (Open Access)Desenvolvimento de aplicativo para granulometria em campo(Universidade Federal de São Paulo, 2023-12-08) Kashiba, Enzo de Moura [UNIFESP]; Mendes, Vinícius Ribau [UNIFESP]; Pereira, André Luiz Vizine [UNIFESP]; http://lattes.cnpq.br/5977522212667911; http://lattes.cnpq.br/5430672600389568; Universidade Federal de São Paulo (UNIFESP)Este trabalho descreve o processo, observações e dificuldades encontradas na tentativa de desenvolvimento de um aplicativo para aparelho móvel capaz de realizar análises granulométricas sem a necessidade de voltar ao laboratório, apenas necessitando a posse de um microscópio digital e aparelho celular. O processo de desenvolvimento contou com Python e Jupyter Notebook como principais plataformas, e também técnicas de Deep Learning e OBIA (Object based image analysis), em conjunto de uma base de imagens de amostras de sedimento para criar um sistema de diferentes máscaras para assim instruir o software de aprendizado profundo a segmentar os diferentes grãos presentes em uma amostra, para assim reconhecer características do grão mesmo enquanto em campo, assim facilitando o processo de pesquisa.
- ItemAcesso aberto (Open Access)Detecção e predição de falhas em equipamentos industriais via aprendizado de máquina(Universidade Federal de São Paulo, 2022-02-11) Santos, Lucas de Jesus Moreira [UNIFESP]; Berton, Lilian [UNIFESP]; http://lattes.cnpq.br/9064767888093340O monitoramento das condições aliado a manutenção preditiva de equipamentos usados pela indústria evita a manutenção chamada de corretiva, essa por sua vez, pode causar perdas econômicas graves. Utilizar conceitos da indústria 4.0 como a Inteligência Artificial para predizer e detectar falhas em tais equipamentos aumenta a confiabilidade do sistema. Esse trabalho tem como foco, aplicar técnicas de Aprendizado de Máquina como Support Vector Machine (SVM), Floresta Aleatória, K-vizinhos mais próximos (KNN), Multi-Layer Perceptron (MLP), Regressão Linear e outros, para predizer e detectar falhas em dois equipamentos industriais, tendo como objetivo comparar o desempenho dessas técnicas. O primeiro equipamento industrial trata-se de uma caixa de engrenagem industrial, para esse equipamento foram utilizados algoritmos Supervisionados de Classificação para detectar possíveis falhas, de acordo com dados coletados por sensores. Os melhores resultados obtidos foram utilizando os algoritmos SVM e MLP. O segundo equipamento industrial trata-se de uma Lâmina de Corte Industrial, para esse equipamento foram utilizados algoritmos Supervisionados de Regressão, essa abordagem é diferente da primeira, pois os dados que serão previstos são valores numéricos dos sen
- ItemAcesso aberto (Open Access)Estudo de segmentação e movimentação de nuvens utilizando imageadores do céu em Natal-RN, costa do nordeste do Brasil(Universidade Federal de São Paulo, 2024-05-17) Pires, Wendy Mary da Silveira [UNIFESP]; Martins, Fernando Ramos [UNIFESP]; http://lattes.cnpq.br/9012359647335296; https://lattes.cnpq.br/4862701131287048; Universidade Federal de São Paulo (UNIFESP)O Sol é a principal fonte de energia para os processos físicos, químicos e biológicos que acontecem em nosso planeta. Com o desenvolvimento tecnológico e o aumento da demanda por energia, as fontes renováveis de energia, incluindo a energia solar, são uma alternativa viável sob o ponto de vista técnico, econômico e ambiental. No entanto, devido às flutuações diárias da radiação solar incidente na superfície, é difícil modelar e simular a produção de energia solar, principalmente em uma região equato-rial considerando o conjunto de fenômenos meteorológicos que atuam e podem con-tribuir para os processos radiativos na atmosfera. A nebulosidade é o principal fator modulador da disponibilidade do recurso solar na superfície dada a sua variabilidade temporal e espacial, de modo que a previsão da cobertura futura de nuvens é uma informação fundamental para simulação e operação dos sistemas fotovoltaicos. Este estudo buscou analisar o movimento de nuvens em imagens coletadas em Natal-RN, cidade costeira localizada na região equatorial do Nordeste do Brasil (NEB). As ima-gens do céu foram coletadas por imageador all-sky com lente olho de peixe (fisheye) em operação na estação solarimétrica integrante da rede SONDA (INPE). O método de calibração das imagens foi desenvolvido com base na percurso solar com o intuito de localizar a posição das nuvens em relação à posição de operação do imageador. Dois algoritmos de classificação de pixels com relação a presença de nebulosidade foram desenvolvidos, um com base na razão vermelho-azul (RBR) em cada pixel e o outro algoritmo utiliza uma biblioteca de céu claro para minimizar o impacto da pre-sença do Sol não ocluso por nuvens nas imagens coletadas. O método de Farnebäck foi implementado para simular o fluxo óptico das nuvens e estimar a posição futura do campo de nuvens para três horizontes de previsão. Os resultados tornam evidentes o desafio da modelagem de movimento de nuvens na costa equatorial NEB em razão das características climáticas regionais: ventos constantes e processos de formação/-dissipação de nuvens em escalas de tempo muito reduzidas. As métricas adotadas para avaliação das previsões realizadas foram RMSE, Viés e MAE. A previsão por persistência foi adotada como referência para comparação com a modelagem de fluxo ótico. Os resultados mostram que para horizontes de 1 minuto, a modelagem de Far-nebäck apresentou desvios do RMSE abaixo de 50%. Em contrapartida os resultados para 10 minutos foram inferiores ao observado em 5 minutos, com um RMSE má-ximo de 55%. Diante disso, a previsão para intervalos de 5 minutos foram as que apresentaram maiores problemas, tendo em vista, as mudanças rápidas das nebulosi-dades sobre as lentes da câmera. Em contrapartida, nos intervalos de 1 e 10 minutos Farnebäck apresentou resultados satisfatórios. As previsões de Farnebäck mostram pequena vantagem em relação ao método de persistência uma vez que os desvios de RMSE foram similares em ambos os métodos, mas valores de viés são reduzidos em condições meteorológicas específicas.
- ItemAcesso aberto (Open Access)Modelos clínicos e genéticos de predição da resposta ao tratamento com risperidona em uma coorte brasileira de pacientes no primeiro episódio psicótico: uma abordagem de aprendizado de máquina(Universidade Federal de São Paulo, 2022-12-13) Costa, Giovany Oliveira Homem da [UNIFESP]; Belangero, Sintia Iole Nogueira [UNIFESP]; Ota, Vanessa Kiyomi [UNIFESP]; http://lattes.cnpq.br/9370282416280620; http://lattes.cnpq.br/2623781262478620; http://lattes.cnpq.br/5250394285789698Objetivo: Este estudo teve como objetivo determinar o desempenho de modelos clínicos, genéticos e híbridos para predizer a resposta de pacientes ao antipsicótico risperidona após o primeiro episódio psicótico (PEP). Métodos: Foram avaliados 141 pacientes em PEP sem uso prévio de antipsicóticos, submetidos a coleta de sangue e avaliação clínica antes e após dez semanas de tratamento com risperidona. A resposta foi definida como uma redução em 50% da Positive and Negative Syndrome Scale. Foram realizadas análises supervisionadas com o pacote mlr do Rstudio e o método de reamostragem nested 5-fold cross-validation foi aplicado junto com os seguintes algoritmos: 1) support vector machine; 2) k-nearest neighbors; 3) random forests. Para os modelos clínicos, foram utilizadas 10 variáveis preditoras (escores das escalas Clinical Global Impression e Global Assessment of Functioning, idade, sexo, renda familiar, uso de cigarro, uso de cannabis, histórico de migração de cidade, histórico de psicose na família e duração de psicose não tratada). No modelo genético, foram utilizados os genótipos de variantes de nucleotídeo único que alteram a expressão e/ou estão presentes em 62 genes candidatos (relacionados a farmacocinética/farmacodinâmica da risperidona ou diferencialmente expressos após tratamento). Para a análise híbrida, foram utilizados todos os preditores clínicos e genéticos. Adicionalmente, foram construídos modelos híbridos com preditores filtrados pela sua importância para o modelo. Resultados: As análises mostraram que os dados clínicos têm maior poder preditivo (acurácia balanceada de 63,3% [intervalo de confiança: 0,46–0,69] - algoritmo support vector machine) quando comparados aos modelos estritamente genéticos (acurácia balanceada de 58,5% [intervalo de confiança: 0,41–0,76]) - algoritmo k-nearest neighbors) e que o melhor desempenho foi obtido pela análise híbrida (genético-clínica) com variáveis filtradas pela importância (duração da psicose não tratada, Clinical Global Impression, idade, uso de cannabis e 406 variantes genéticas), que obteve uma acurácia balanceada de 72,9% (intervalo de confiança: 0,62–0,84), utilizando o algoritmo random forests. Conclusão: Este estudo mostrou que as variáveis clínicas são mais eficazes em predizer a resposta ao tratamento com risperidona em comparação com o desempenho de variantes genéticas, mas não explicam isoladamente esse fenótipo secundário, fenômeno reforçado pelo nosso modelo híbrido filtrado pela importância das variáveis, o qual revelou um aumento da acurácia do modelo com a combinação desses preditores. As análises identificaram que o conjunto de variáveis psiquiátricas observadas no momento do PEP, fatores clínicos e de risco para doenças mentais e variantes genéticas envolvidas na farmacogenética do antipsicótico são os principais contribuidores na predição da resposta ao tratamento com risperidona.
- ItemAcesso aberto (Open Access)Predição do movimento direcional de preço de btc em uma janela de volume pré-definida utilizando modelos de aprendizado de máquina(Universidade Federal de São Paulo, 2023-08-29) Palazzo, Guilherme [UNIFESP]; Sbruzzi, Elton Felipe; Leles, Michel Carlo Rodrigues; http://lattes.cnpq.br/5512914843540140; http://lattes.cnpq.br/0026358605322965Nos últimos anos tem havido um interesse crescente nos mercados de criptomoedas. Isso tem levado ao surgimento de iniciativas de previsão de preço para auxiliar investidores e participantes do mercado em seus processos de tomada de decisão. Neste trabalho, apresentamos uma distinta metodologia que combina modelos de classificação em aprendizado de máquina para prever a direção do preço do Bitcoin. A direção do preço é categorizada como ”top” (sendo valor um) ou como ”bottom” (sendo valor zero) em um horizonte equivalente a barras de volume de 50k de unidades. Predizer a direção fornece uma maior margem de erro e utilizar barras de volume permite ponderar diferentes períodos de atividade do mercado. Nós exploramos três opções de modelo: eXtreme Gradient Boosting (XGBoost), Long-Short Term Memory e Regressão Logística. Dentre as opções, o XGBoost é o melhor algoritmo com um valor da curva Area Under the Receiver Operating Characteristic de 0.66 e um Sharpe ratio de 6.27, ambos no subconjunto de teste. Já no subconjunto de validação, o Sharpe ratio foi de 1.08 contra 0.81 do benchmark.
- ItemAcesso aberto (Open Access)Predição e caracterização de vórtices propagantes para oeste no Atlântico Sul através de aprendizagem de máquina(Universidade Federal de São Paulo, 2023-12-08) Tavares, Victória Marchetto [UNIFESP]; Watanabe, Wandrey de Bortoli [UNIFESP]; Pereira, André Luiz Vizine [UNIFESP]; http://lattes.cnpq.br/5977522212667911; http://lattes.cnpq.br/6241297377328814; http://lattes.cnpq.br/5240104154483014; Universidade Federal de São Paulo (UNIFESP)Os vórtices oceânicos de mesoescala são estruturas presentes em toda extensão oceânica, definidos por padrões espiralados com escala superior à do raio de deformação de Rossby. A identificação e caracterização dessas estruturas torna-se primordial devido o transporte de propriedades biológicas e físicas da água, exercendo influência marcante na dinâmica marinha e, em uma escala climatológica mais ampla, na absorção atmosférica de carbono. Além disso, tais vórtices interagem significativamente com a atmosfera superior através de trocas de calor no sistema oceano-atmosfera. Em razão da importância física, bioquímica e atmosférica dos vórtices, este trabalho tem como objetivo estimar a velocidade de deslocamento das feições observadas em dados altímetros e prever sua propagação através de métodos de aprendizado de máquinas. Neste estudo metodológico, foram adquiridos dados de multi-satélites referentes à anomalia da altura da superfície do mar e propriedades derivadas para o Atlântico Sul Subtropical, fornecidos pelo Copernicus Marine Services. Com isso, empregou-se o algoritmo de Farnebäck, do pacote OpenCV, para a determinação do fluxo óptico, permitindo a identificação dos vetores de deslocamento e a previsão da presença de anomalias que caracterizam vórtices, bem como a estimativa da direção e velocidade de propagação dessas estruturas. Este algoritmo foi aplicado em uma série temporal de 04 anos, com um intervalo temporal de sete dias, para melhor estimar a propagação. Como resultado, foram produzidas predições que representam a evolução temporal das feições. Ao comparar tais predições com as imagens originais adquiridas por satélites para os mesmos tempos, observou-se índices de similaridade estrutural entre 0,87 e 0,94 e semelhança média absoluta entre 69,8% e 96,33%. A velocidade de propagação das feições também foi comparada com os dados de velocidade geostrófica, o que permitiu gerar estimativas sobre a linearidade dos vórtices que se movem para oeste na região subtropical do Atlântico Sul