Próximas defesas e eventos
Titulo | Autor/Organizador | Tipo | Data | Horário | Local |
---|---|---|---|---|---|
9º IST IME - ENCONTRO BRASIL-PORTUGAL | Clodoaldo Grotta Ragazzo | Conferência | 04/08/2025 à 08/08/2025 | 09:59 às 18:00 | IME - USP |
Clodoaldo Grotta Ragazzo
IME - USP
Não
Sim
Não
Português
Presencial
É com grande satisfação que anunciamos a nona edição da conferência bienal IST-IME, uma iniciativa conjunta do Instituto Superior Técnico (IST) de Lisboa, do Instituto de Matemática e Estatística da Universidade de São Paulo (IME-USP) e das Sociedades Brasileira e Portuguesa de Matemática (SBM e SPM). O objetivo da conferência é fomentar a integração de pesquisadores provenientes do Brasil e de Portugal. Nesta edição, que será sediada no Instituto de Matemática e Estatística da Universidade de São Paulo (IME-USP) de 4 a 8 de agosto de 2025, teremos de 20 a 30 comunicações orais de jovens pesquisadores brasileiros e 20 palestras de matemáticos portugueses e brasileiros. Se você tem intenção de estudar ou fazer pesquisa em Portugal, venha! |
|||||
WORKSHOP ON RISK ANALYSIS AND APPLICATIONS | Vladimir Belitsky, Chairman | Workshop | 24/09/2025 à 25/09/2025 | 08:00 às 18:00 | Auditório Jacy Monteiro |
Vladimir Belitsky, Chairman
Auditório Jacy Monteiro
Sim
Não
Sim
Inglês
Presencial
Risk Analysis and Applications is a satellite workshop to the 8-th Brazilian Conference on Stochastic Modeling in Insurance and Finance. It will be held for two days of the week that precedes the Conference. It will be focused on the Risk Analysis that is one of the Conference topics. The program will feature approximately 8 plenary lectures on Risk Analysis and closely related topics, software presentations, a round table, a poster session, and a mini course at the level appropriate for undergraduate students. Researchers, practitioners, undergraduate and graduate students are encouraged to participate and are welcome to contribute with their expertise to the software presentations and the round table discussions as well as to present their current research work and/or problems in the form of posters.
https://sites.google.com/usp.br/raa/
|
|||||
8th BRAZILIAN CONFERENCE ON STATISTICAL MODELING IN INSURANCE AND FINANCE | Nikolai Kolev, Chairman | Conferência | 28/09/2025 à 03/10/2025 | 08:00 às 18:00 | Maresias - SP |
Nikolai Kolev, Chairman
Maresias - SP
Sim
Não
Sim
Inglês
Presencial
The Institute of Mathematics and Statistics of the University of São Paulo (IME-USP) is announcing the Eighth Brazilian Conference on Statistical Modeling in Insurance and Finance (8th BCSMIF) to be held from September 28 to October 3, 2025 at the Maresias Beach Hotel in Maresias, SP. The 8th BCSMIF objective is to provide a forum for presenting cutting-edge research on the development, implementation of recent methods in the field of Finance and Insurance, with emphasize on the practical applications of Data Science and Machine Learning. The 8th BCSMIF also seeks to promote discussion and the exchange of ideas between young researchers and senior scientists. Traditionally, the event involves graduate students to facilitate their integration into the academic and scientific environment. All speakers are invited to include relevant examples in their presentations. The 8th BCSMIF is open to academic and non-academic communities, including universities, insurance companies, banks, consulting firms, and government agencies. The conference aims to foster cooperation between professionals and researchers in the field. The official language is English. Two satellite workshops will be held before 8th BCSMIF: Risk Analysis and Applications (September 24+25, 2025) at the Institute of Mathematics and Statistics of the University of São Paulo (IME-USP) Dependence Analysis (September 26+27, 2025) at the Institute of Mathematics, Statistics and Scientific Computing of the State University of Campinas (IMECC-UNICAMP) |
|||||
EMME - Encontro de Modelagem Matemática Aplicada à Epidemiologia | IME e ICB | Encontro | 06/10/2025 à 17/10/2025 | 09:00 às 18:00 | Itinerante |
IME e ICB
Itinerante
Não
Sim
Não
Português
Presencial
|
|||||
Symposium on Analysis, Partial Differential Equations And Applications | The SAnPA is organized by the Coordinating Committee of the Graduate Program in Applied Mathematics and the Graduate Program in Mathematics of IME-USP | Simpósio | 06/10/2025 à 08/10/2025 | 08:00 às 18:00 | Auditório Jacy Monteiro |
The SAnPA is organized by the Coordinating Committee of the Graduate Program in Applied Mathematics and the Graduate Program in Mathematics of IME-USP
Auditório Jacy Monteiro
Não
Não
Não
Inglês
Presencial
SYMPOSIUM ON ANALYSIS, PARTIAL DIFFERENTIAL EQUATIONS AND APPLICATIONS
The Symposium on Analysis, Partial Differential Equations and Applications (SAnPA) is a scientific meeting focused on recent advances in partial differential equations (PDEs) and related areas of analysis. The event brings together researchers from different countries to share results, exchange ideas, and promote collaboration in both theoretical and applied aspects of PDEs. SAnPA features invited talks by experts in the field, covering topics such as nonlinear equations, conservation laws, dispersive equations, parabolic equations, and applications in science and engineering. The symposium also supports the participation of early-career researchers and students, creating a welcoming environment for learning and interaction within the mathematical community. All Symposium activities will take place at Rua do Matão, 1010 CEP: 05508-090, São Paulo - SP, Brazil |
|||||
Efeito de Pares de Gênero na Escolha de Curso Superior: Uma abordagem de ciência de dados | Dayanne Cristina Pereira Gomes | Defesa de Mestrado | 27/05/2025 | 10:00 | Auditório Jacy Monteiro |
Dayanne Cristina Pereira Gomes
Fabio Kon
Ciência da Computação
Auditório Jacy Monteiro
https://us06web.zoom.us/j/89791320156?pwd=8amaIaW5b7t7KnAvU3s0PbTQacjajy.1.
Banca
Fabio Kon (P) USP
Gisela Tunes da Silva (P) USP
Adriano Souza Senkevics (P) EXTERNO
Jacques Wainer
Nina Sumiko Tomita Hirata Bruna Pugialli da Silva Borges
Dissertação
Efeito de Pares de Gênero na Escolha de Curso Superior: Uma abordagem de ciência de dados
No Brasil, persistem disparidades de gênero significativas na escolha de cursos superiores, notadamente a sub-representação feminina em áreas de ciência, tecnologia, engenharia e matemática (STEM). O ambiente escolar vivenciado durante o ensino médio, incluindo a composição de gênero da coorte, é um fator contextual que pode influenciar essas decisões cruciais de trajetória educacional e profissional. Embora a literatura internacional investigue os efeitos de pares de gênero, a influência causal específica dessa composição de gênero no contexto brasileiro de acesso ao ensino superior (via ENEM/SISU), considerando sua escala e heterogeneidade, permanecia pouco compreendida. Faltavam evidências robustas em nível nacional para informar políticas de equidade. Essa pesquisa investigou como a composição de gênero da coorte de ensino médio impacta a escolha de graduação em âmbito nacional, utilizando uma abordagem de ciência de dados. Combinou-se, de forma inédita, múltiplas fontes públicas (ENEM, SISU e Censo Escolar), desenvolvendo etapas de pré-processamento e integração para criar uma base de dados unificada. Realizou-se uma análise exploratória detalhada para caracterizar o perfil dos estudantes, instituições e cursos, identificando padrões de desempenho e escolha por gênero e região. Para estimar o efeito causal dos pares, aplicou-se uma metodologia econométrica baseada em variações idiossincráticas na composição de gênero das coortes, controlando por efeitos fixos e características observáveis. A análise descritiva mostrou uma predominância feminina no ENEM, mas também disparidades socioeconômicas e de desempenho em áreas de exatas, além de uma segmentação por gênero nas escolhas de curso via SISU. Os resultados estimados pelo modelo econométrico indicam que há um grande gap de gênero inicial para STEM e Tecnologia da Informação (TI). Embora a composição de gênero da coorte não tenha mostrado efeito médio significativo na escolha geral por STEM, identificou-se um efeito diferenciado por gênero para TI: uma maior proporção de colegas mulheres foi associada a uma menor probabilidade de homens escolherem TI e a uma maior(embora pequena) probabilidade de mulheres escolherem esta área. Esse estudo contribui ao gerar um perfil detalhado das escolhas de curso e ao fornecer evidências causais em escala nacional sobre o efeito de pares de gênero, a partir da integração de bases de dados abrangentes. Os achados destacam a complexidade do fenômeno e a importância de análises específicas por área (como STEM e TI), podendo subsidiar políticas mais direcionadas para a promoção da equidade em ambientes educacionais.
Engenharia de dados, Ciência de dados, Econometria, Composição de gênero, Escolhas de graduação, Ensino médio, Educação, SISU, ENEM, Censo Escolar
|
|||||
Integração de banco de dados com estrutura de dependência entre observações. | Catia Michele Tondolo | Defesa de Doutorado | 30/05/2025 | 14:00 | Auditório Antonio Gilioli |
Catia Michele Tondolo
Julia Maria Pavan Soler
Probabilidade e Estatística
Auditório Antonio Gilioli
https://meet.google.com/fss- qsho-vrm
Banca
Julia Maria Pavan Soler (P) USP
Lucia Pereira Barroso (P) USP
Sergio Russo Matioli (P) USP Daniel Furtado Ferreira (P) UFLA Daniela Carine Ramires de Oliveira (P) UFSJ
Antonio Augusto Franco Garcia USP
Julio Silvio de Sousa Bueno Filho UFLA Viviana Giampaoli USP Anatoli Iambartsev USP Daiane Aparecida Zuanetti UFSCAR
Tese
Integração de banco de dados com estrutura de dependência
entre observações.
A integração de bancos de dados em estudos multiômicos, em particular, aqueles que en-
volvem a combinação de dados fenotípicos com genômicos, exige técnicas que considerem a
estrutura de dependência entre observações, especialmente em contextos onde as amostras
apresentam vínculos familiares ou correlações genéticas. Este trabalho explora métodos de
integração de dados que incorporam essas estruturas de dependência, buscando melhorar a
precisão das estimativas e a interpretação dos resultados. Utilizando formulações da Análise
de Correlação Canônica Generalizada (GCCA), esta pesquisa permite a análise conjunta de
diferentes conjuntos de dados ao maximizar a correlação entre blocos de variáveis, particio-
nando informações que são compartilhadas entre indivíduos com dependências familiares e
ou genéticas daquelas que são compartilhadas entre indivíduos independentes. Para esse fim,
são empregados modelos mistos poligênicos no contexto da análise de correlação canônica.
A aplicação desses métodos é considerada em dados simulados e reais, e visam aprimorar
a identificação de biomarcadores associados a variáveis de interesse, oferecendo uma visão
integrativa e robusta de sistemas biológicos complexos e possibilitando avanços na medicina
personalizada e na genética populacional, ao mesmo tempo que explora novas abordagens
na análise e integração de dados ômicos com estrutura de dependência entre observações.
Análise de Correlação Canônica Generalizada, Dependência entre obser- vações, Integração de Dados Multiômicos, Modelos Mistos Poligênicos
|
|||||
Abordando ambiguidade: visualizando e controlando erros gerados por agrupamento de trajetórias | Lucas Pires Stankus | Defesa de Mestrado | 03/06/2025 | 14:00 | Sala 249 Bloco A |
Lucas Pires Stankus
Fabio Kon
Ciência da Computação
Sala 249 Bloco A
https://meet.google.com/sis-ncuf-mco.
Banca
Fabio Kon (P) USP
Carla Maria Dal Sasso Freitas (P) UFRGS
Marcos de Oliveira Lage Ferreira (P) UFF
Roberto Hirata Junior
Hélio Pedrini Emanuele Marques dos Santos
Dissertação
Abordando ambiguidade: visualizando e controlando erros gerados por agrupamento de trajetórias
Visualizar grandes grafos e conjuntos de trajetos é desafiador. Plotá-los diretamente em imagens gera muita poluição visual, obscurecendo informações relevantes dos dados. Técnicas de agrupamento de trajetos (path bundling) buscam melhorar a visualização desses conjuntos de dados ao agrupar trajetos com atributos semelhantes, como posição, direção ou conectividade na rede. Ao combinar trajetos em agrupamentos (bundles), essas técnicas reduzem a desordem visual e destacam a estrutura geral da rede. Por sua natureza, as técnicas de agrupamento deformam o desenho original para gerar a imagem final. Essa deformação introduz erros em relação aos dados originais, o que pode levar a interpretações equivocadas e conclusões falsas. Medir a qualidade de uma visualização agrupada também é desafiador, com diversas abordagens divergentes para quantificar diferentes características dos dados. Uma métrica de qualidade notável é a ambiguidade de trajetos (path ambiguity). A ambiguidade de trajetórias ocorre quando a visualização agrupada gera interpretações incorretas dos padrões de conectividade dos dados subjacentes. Embora problemas de ambiguidade afetem a maioria das técnicas de agrupamento atuais, poucas tentam abordá-los diretamente. Além disso, não há uma métrica disponível que possa indicar ao usuário o nível de ambiguidade presente em uma determinada região da visualização. Nesta dissertação de mestrado, propomos uma nova métrica de ambiguidade que mede com sucesso a ambiguidade local em desenhos agrupados. Nossa métrica é a primeira a representar a ambiguidade como um campo escalar para o desenho. Uma aplicação da métrica é exibir valores de ambiguidade aos usuários por meio de mapas de cores, indicando o quanto eles podem confiar em uma região específica do desenho. Adicionalmente, apresentamos uma aproximação computacional da métrica que reduz tanto o tempo de processamento quanto o consumo de memória, permitindo o cálculo de valores de ambiguidade para conjuntos de dados com milhões de trajetos. Por fim, também propomos o Image-Based Ambiguity-Avoidance Bundling (IBAVB), um novo método de agrupamento que integra a prevenção de ambiguidade em métodos iterativos de agrupamento. O IBAVB utiliza os resultados de nossa métrica de ambiguidade para desacelerar estrategicamente o agrupamento de trajetos quando a ambiguidade aumenta, criando um equilíbrio entre a força do agrupamento e o controle de ambiguidade. Por meio de experimentos, demonstramos que o IBAVB reduz efetivamente a ambiguidade de trajetos do método em que está sobreposto, tornando-o uma opção atraente para aprimorar técnicas existentes.
Visualização de dados, Agrupamento de trajetórias, Ambiguidade
|
|||||
Transformada Imagem-Floresta Orientada Hierárquica sujeita a Restrições de Proximidade | Luiz Felipe Dolabela Santos | Defesa de Mestrado | 04/06/2025 | 14:00 | Sala 144 Bloco B |
Luiz Felipe Dolabela Santos
Paulo Andre Vechiatto de Miranda
Ciência da Computação
Sala 144 Bloco B
https://meet.google.com/khv-axfn-mrt.
Banca
Paulo Andre Vechiatto de Miranda (P) USP
Fábio Augusto Menocci Cappabianco (P) UNIFESP
Jurandy Gomes de Almeida Junior (P) UFSCAR
Marcos de Sales Guerra Tsuzuki
Roberto Hirata Junior Silvio Jamil Ferzoli Guimarães
Dissertação
Transformada Imagem-Floresta Orientada Hierárquica sujeita a Restrições de Proximidade
Nesta proposta, abordamos o problema de segmentação de imagens sujeita a restrições de alto nível
esperadas para os objetos de interesse. Mais especificamente, definimos restrições de proximidade
a serem usadas em conjunto com restrições geométricas de inclusão no algoritmo da Transformada
Imagem-Floresta Orientada Hierárquica (HLOIFT - Hierarchical Layered Oriented Image Fores-
ting Transform). A HLOIFT é capaz de segmentar objetos em diferentes níveis hierárquicos e tais
objetos guardam relações entre si, podendo ser de inclusão ou exclusão. Na relação de inclusão,
a área de um objeto presente em um nível hierárquico "filho"está totalmente contida na área de
um objeto "pai". A nova restrição proposta tem por objetivo limitar a distância máxima (em um
sentido geodésico) entre as bordas de pares de objetos aninhados pela relação de inclusão. Neste
contexto, objetiva-se melhorar a acurácia do algoritmo de segmentação quando utilizado para seg-
mentar objetos que tenham uma relação previsível de distância entre suas bordas, tais como placas
de sinalização, quadros emoldurados ou estruturas em imagens médicas, nas quais órgãos respeitam
relações de posição espacial e proporção. O método, ao utilizar conhecimento prévio dos objetos
de interesse, pode dispensar bases de treinamento rotuladas, tal como utilizado em algoritmos de
aprendizado supervisionado, podendo assim ser também usado em situações em que inexiste base
de dados relevante ou quando seu tamanho é insuficiente. Neste trabalho, além de formular a nova
restrição de proximidade, dois algoritmos diferentes são propostos para resolver o problema de oti-
mização de uma energia de corte em grafos sujeita a nova restrição, assim como é apresentada uma
variação da restrição para lidar com distâncias relativas ao tamanho do objeto.
Segmentação baseada em grafos, Restrições hierárquicas, Restrições de Proximi- dade, Transformada Imagem-Floresta.
|
|||||
Recomendação de próxima cesta aplicada à previsão de portfólio de fundos de investimento | Guilherme Yambanis Thomaz | Defesa de Mestrado | 04/06/2025 | 09:00 | Sala 249 Bloco A |
Guilherme Yambanis Thomaz
Denis Deratani Mauá
Ciência da Computação
Sala 249 Bloco A
https://meet.google.com/fzm-amxf-vsd.
Banca
Denis Deratani Mauá (P) USP
Reinaldo Augusto da Costa Bianchi (P) UNIFEI
Anna Helena Reali Costa (P) USP
Roberto Hirata Junior
Ivandre Paraboni Sarajane Marques Peres
Dissertação
Recomendação de próxima cesta aplicada à previsão de portfólio de fundos de investimento
A previsão de portfólios de fundos mútuos representa um problema desafiador, porém economicamente significativo, com implicações para os trilhões de dólares gerenciados por esses veículos de investimento globalmente. Esta tese aplica técnicas de sistemas de recomendação a este domínio, definindo a evolução de portfólios como uma manifestação do clássico dilema da exploração-aproveitamento. Fazemos uma contribuição metodológica fundamental ao decompor a tarefa de previsão em posições mantidas (aproveitamento) e novas aquisições (exploração), revelando características de previsibilidade drasticamente diferentes que permaneceriam ocultas em uma avaliação unificada.
Utilizando registros públicos da SEC, criamos conjuntos de dados de referência abertos que possibilitam pesquisas reproduzíveis de aprendizado de máquina financeiro em um campo frequentemente limitado por dados proprietários. Ampliamos métricas padrão para incorporar percentuais de alocação e avaliamos sistematicamente diversas arquiteturas de recomendação. Nossos resultados revelam uma surpreendente relação inversa entre complexidade do modelo e desempenho: modelos mais simples como EASE (uma abordagem linear de filtragem colaborativa) consistentemente superam redes neurais sofisticadas e modelos sequenciais específicos para explorar novas aquisições, alcançando NDCG@20 de 0,1904 em comparação com 0,1362 para BTBR, o melhor modelo NBR específico. Para previsão de posições mantidas, uma simples heurística de Última Alocação alcança resultados notáveis (NDCG@20 de 0,9333), superando significativamente até as melhores abordagens de aprendizado de máquina.
Análises adicionais identificam fatores críticos que afetam o desempenho: (1) a recência temporal impacta significativamente a previsão de exploração, com modelos treinados em dados recentes superando substancialmente aqueles que usam histórico estendido; (2) a incorporação de posições existentes prova-se essencial para a previsão eficaz de exploração, demonstrando que essas decisões são tomadas em relação à estrutura atual do portfólio; e (3) o estilo de gestão molda fundamentalmente os padrões de previsibilidade—fundos passivos exibem maior previsibilidade para novas aquisições devido às suas restrições de acompanhamento de índices, enquanto fundos ativos demonstram maior previsibilidade para posições mantidas, refletindo estratégias baseadas em convicção.
Esses resultados sugerem uma abordagem prática de recomendação dual em aplicações financeiras: utilizando heurísticas simples para manutenção de posições enquanto aplica modelos de filtragem colaborativa para previsão de exploração. Além da previsão direta de portfólios, nossa abordagem permite identificação de tendências de mercado, detecção de mudanças de estratégia e análise aprimorada de similaridade entre fundos. Esta pesquisa estabelece uma base para trabalhos futuros na interseção entre sistemas de recomendação e análise financeira, fornecendo insights acionáveis para análise institucional e aplicações de investimento de varejo.
sistemas de recomendação, fundos de investimento, previsão de carteira
|
|||||
Resolução do Problema da Ajuste Métrico: métodos e resultados | Júlia Demori Guizardi | Defesa de Mestrado | 04/06/2025 | 09:30 | Remota |
Júlia Demori Guizardi
Ernesto Julian Goldberg Birgin
Matemática Aplicada
Remota
https://meet.google.com/xov-aubc-nva.
Banca
Ernesto Julian Goldberg Birgin (P) USP
John Lenon Cardoso Gardenghi (P) UNB
Douglas Soares Gonçalves (P) UFSC
Luis Felipe Cesar da Rocha Bueno
Gabriel Haeser Luiz Rafael dos Santos
Dissertação
Resolução do Problema da Ajuste Métrico: métodos e resultados
O Problema da Aproximação Métrica consiste em encontrar a matriz de distâncias mais próxima, usando a norma $\ell_p$, para uma matriz de dissimilaridade dada de forma que as propriedades métricas, particularmente as desigualdades triangulares, sejam satisfeitas. Este problema pode ser aplicado em diversos contextos, incluindo localização de sensores, processamento de imagens e agrupamento de dados, onde os dados fornecidos possuem ruídos ou estão incompletos e precisam ser corrigidos.
Este trabalho oferece estudos tanto teóricos quanto práticos do problema. A formulação do problema é apresentada sob as normas $\ell_{1}$, $\ell_{2}$ e $\ell_{\infty}.$ Dois métodos de otimização numérica são estudados e aplicados: o método de Lagrangiano Aumentado via Algencan e o método de projeção de Dykstra, que pode ser especificamente programado para este problema. Ambos são aplicados às três normas. Otimizações foram implementadas para lidar com o grande número de restrições, aproveitando de padrões no algoritmo. Diversos experimentos foram conduzidos em conjuntos de dados sintéticos e reais para avaliar o desempenho computacional e a precisão numérica.
O problema com a norma $\ell_{2}$ foi especialmente adaptado ao Algencan devido à sua estrutura não linear, enquanto o método de Dykstra mostrou desempenho superior em conjuntos de grande escala devido à implementação específica que gera baixos requisitos de memória. Em casos lineares, com as normas $\ell_{1}$ e $\ell_{\infty}$, também foi realizada uma comparação com o método Simplex. Os resultados revelam que o método de Dykstra, quando aplicado corretamente, pode resolver problemas com até $10^{11}$ restrições.
Problema de Ajuste Métrico, Algencan, Dykstra.
|
|||||
Estimação robusta no regressão normal multivariado com parametrização geral | Diego Ramos Canterle | Defesa de Doutorado | 04/06/2025 | 14:00 | Sala 249 Bloco A |
Diego Ramos Canterle
Alexandre Galvão Patriota
Probabilidade e Estatística
Sala 249 Bloco A
meet.google.com/cmo-bxnm-djw.
Banca
Alexandre Galvão Patriota (P) USP
Silvia Lopes de Paula Ferrari (P) USP
Mário de Castro Andrade Filho (P) ICMC-USP Fábio Mariano Bayer (P) UFSM Renata Rojas Guerra (P) UFSM
Marcia D Elia Branco
Filidor Edilfonso Vilca Labra Viviana Giampaoli Artur José Lemonte Marcelo Bourguignon Pereira
Tese
Estimação robusta no regressão normal multivariado com parametrização geral
Este trabalho explora o uso da medida de $q$-entropia não extensiva para a estimação de parâmetros no modelo de regressão normal multivariado com parametrização geral. Esse modelo abrange uma ampla classe de modelos de regressão, incluindo modelos mistos, modelos com erros nas variáveis, modelos não lineares, entre outros.
O estimador resultante, denominado estimador de máxima verossimilhança L$_q$, depende de um parâmetro de afinação $q$, escolhido para melhorar a precisão inferencial na presença de outliers. Derivamos as quantidades necessárias para obter o estimador dos parâmetros e a matriz de variância e covariância do estimador de máxima verossimilhança L$_q$ sob essa classe geral de modelos.
Algumas dessas quantidades são detalhadas para três casos específicos: modelos mistos, modelos com erros nas variáveis e modelos não lineares. Embora o estimador de máxima verossimilhança L$_q$ possa ser inconsistente, neste trabalho encontramos um novo estimador que satisfaça a propriedade de consistência por meio de uma função de calibração.
Também obtemos outro estimador consistente e robusto que minimiza uma versão empírica da divergência potência entre densidades, denominado estimador de mínima divergência potência entre densidades.
Para avaliar o desempenho da nossa proposta, conduzimos simulações de Monte Carlo na ausência e na presença de outliers em amostras finitas. Finalmente, aplicamos nosso método a dados do mundo real.
Parametrização geral, Verossimilhança L$_q$, Modelos de regressão, Estimação robusta
|
|||||
Gerenciando a Evolução Semântica em Bancos de Dados: Da Teoria à Implementação | Pedro Ivo Siqueira Nepomuceno | Defesa de Mestrado | 12/06/2025 | 14:00 | Auditório Jacy Monteiro |
Pedro Ivo Siqueira Nepomuceno
Kelly Rosa Braghetto
Ciência da Computação
Auditório Jacy Monteiro
https://meet.google.com/hph-xsqk-fqc.
Banca
Kelly Rosa Braghetto (P) USP
Caetano Traina Junior (P) USP
Daniel Cardoso Moraes de Oliveira (P) UFF
Marcelo Finger
José de Jesus Pérez Alcazár Ronaldo dos Santos Mello
Dissertação
Gerenciando a Evolução Semântica em Bancos de Dados: Da Teoria à Implementação
A heterogeneidade semântica é um desafio comum na análise de conjuntos de dados que se estendem por longos períodos. Com o tempo, as fontes de dados podem mudar a forma como as informações são agrupadas, como as categorias são nomeadas ou quais unidades de medida são utilizadas. Consequentemente, consultar esses dados geralmente exige que os usuários estejam plenamente cientes de todas as inconsistências históricas e adaptem manualmente tanto suas consultas quanto a interpretação dos resultados — um processo trabalhoso e sujeito a erros. Esta dissertação de mestrado apresenta fundamentos teóricos e ferramentas práticas para lidar com a evolução semântica de dados. Duas estratégias complementares são propostas: reescrita de consultas e pré-processamento dos dados. Para ambas, foram desenvolvidos modelos de armazenamento e algoritmos dedicados ao tratamento da evolução semântica, garantindo não apenas a recuperação correta dos registros, mas também sua compatibilidade semântica no momento da consulta. Um sistema protótipo, o MellowDB, foi desenvolvido para permitir que usuários consultem dados semanticamente heterogêneos sem a necessidade de lidar manualmente com a evolução semântica subjacente. Desde que um histórico completo das mudanças semânticas esteja disponível, é possível escrever consultas como se os dados fossem homogêneos — obtendo, ainda assim, resultados consistentes e significativos. O arcabouço parte do pressuposto de que toda heterogeneidade semântica é causada por operações de evolução discretas e datadas, que podem ser ordenadas cronologicamente. Três dessas operações são formalmente definidas e implementadas: tradução, agrupamento e desagrupamento. O modelo, no entanto, é extensível para acomodar outros tipos de mudanças semânticas. O sistema foi avaliado com um conjunto de dados reais: as causas de óbito no Brasil entre 1979 e 2021. Esse conjunto ilustra dois tipos importantes de evolução semântica: a alteração do padrão de classificação baseada no CID-9 para o CID-10 em 1996 e a reestruturação ou renomeação frequente de municípios brasileiros ao longo do tempo. Os testes de desempenho mostram que ambas as estratégias são viáveis para uso em ambientes de produção, e a escolha entre elas depende principalmente das características da carga de trabalho — especialmente da proporção entre leituras e gravações. Com a seleção correta da abordagem e boa indexação, o sistema consegue responder a consultas com um tempo adicional menor que um centésimo de segundo. A abordagem de pré-processamento de dados mostrou-se particularmente eficiente, superando de forma consistente a abordagem de reescrita de consultas na maioria dos cenários testados, embora a reescrita seja preferível em situações em que inserções representem mais de 95\% das operações (cenários com predominância de escrita). Este trabalho traz uma contribuição inédita e prática para o campo da evolução semântica ao propor um arcabouço robusto para lidar com a heterogeneidade semântica e viabilizar consultas precisas e contínuas mesmo diante da evolução semântica, sem exigir do usuário o tratamento manual dela.
bancos de dados,evolução semântica,heterogeneidade semântica,reescrita de consultas,pre-processamento de dados, tradução, agrupamento, desagrupamento
|
|||||
Sequence Design e Deep Reinforcement Learning: Uma nova perspectiva no tratamento da Hemofilia B | Arthur Moriggi Pimenta | Defesa de Mestrado | 19/06/2025 | 15:00 | Auditório Jacy Monteiro |
Arthur Moriggi Pimenta
Roberto Hirata Junior
Ciência da Computação
Auditório Jacy Monteiro
https://meet.google.com/tmu-ubhj-prs?hs=224.
Banca
Roberto Hirata Junior (P) USP
Fernando Luis Barroso da Silva (P) FCFRO-USP
Helder Takashi Imoto Nakaya (P) FCF-USP
Anna Helena Reali Costa
André Fujita Tiago José da Silva Lopes
Dissertação
Sequence Design e Deep Reinforcement
Learning: Uma nova perspectiva no
tratamento da Hemofilia B
Neste trabalho, propomos o desenvolvimento de um pipeline computacional para o design de proteínas
substitutas ao Fator IX de coagulação humana (FIX), com o objetivo de otimizar seu uso terapêutico no
tratamento da hemofilia B. A metodologia combina aprendizado por reforço profundo com técnicas avançadas
de modelagem estrutural e análise de interação molecular. O pipeline é dividido em três módulos principais:
(i) Condições Iniciais, responsável por gerar a sequência inicial de aminoácidos e avaliar sua estrutura; (ii)
Trereforço para realizar mutações na sequência inicial que minamento, no qual um agente GenSeq é treinado
com aprendizado por aximizem a similaridade estrutural com o FIX; e (iii) Geração de Sequências, que utiliza
o agente treinado para explorar o espaço de sequências. A avaliação das proteínas geradas inclui a análise de
similaridade estrutural, o estudo das interações moleculares com outras macromoléculas, como o Fator VIII de
coagulação humana (FVIII), e a avaliação do perfil imunológico. Os resultados demonstram que as proteínas
propostas apresentam alta similaridade estrutural com o FIX nativo, interações moleculares eficientes com o
FVIII e perfis imunogênicos comparáveis ou mais favoráveis que o FIX. O pipeline mostrou-se promissor
como ferramenta para o design de proteínas terapêuticas personalizadas e de baixo risco imunológico para
aplicação clínica no tratamento da hemofilia B.
Hemofilia B, Fator IX, Design de proteínas, Aprendizado por Reforço, PPO, Imunogenicidade, Docking Molecular.
|
|||||
O ensino de polinômios e números complexos: uma proposta visando adaptar esse assunto à Base Nacional Comum Curricular com questões adequadas ao Enem | Fernando Carlos Fuchs | Defesa de Mestrado | 23/06/2025 | 14:00 | Auditório Jacy Monteiro |
Fernando Carlos Fuchs
Oscar Joao Abdounur
Ensino de Matemática
Auditório Jacy Monteiro
https://meet.google.com/zoh-pzct-xoc.
Banca
Oscar Joao Abdounur (P) USP
Marcelo Massarani (P) USP
Riccardo Vanni Morici (P) PUC-SP
Antonio Carlos Brolezzi
Fabio Del Papa Abigail Fregni Lins
Dissertação
O ensino de polinômios e números complexos:
uma proposta visando adaptar esse assunto à Base Nacional Comum Curricular com questões adequadas ao Enem
A introdução de questões pertinentes ao assunto Polinômios e Números Complexos ao Ensino Médio, principalmente encaixando essas questões na formulação do Enem (Exame Nacional do Ensino Médio), contribui para que os indivíduos possam realizar uma interpretação correta e crítica de vários fenômenos presentes na natureza e na sociedade da qual fazem parte. Para descrever esse tipo de associação, um método bastante relevante é o uso de exercícios com motivos cotidianos associados a Matemática Financeira, fenômenos físicos, modelos etc., os quais possibilitam o desenvolvimento de habilidades vinculadas a um tipo de raciocínio específico. Nesta dissertação, apresentou-se uma sequência de exercícios práticos para estudantes do Ensino Médio – baseada na Metodologia de Ensino-Aprendizagem-Avaliação de Matemática através da Resolução de Problemas. As situações de Resolução de Problemas permitem, na maioria das vezes, que os estudantes façam associações entre o mundo ao seu redor e a matemática, propiciando a busca por caminhos e estratégias para soluções dos problemas propostos ativando conhecimentos prévios de matemática, bem como de outros saberes. A pesquisa, pautada por uma análise qualitativa e situada na modalidade da pesquisa-ensino apresentou como suporte os referenciais teóricos acerca da Resolução de Problemas, com o intuito de encaixar Polinômios e Números Complexos na Educação Básica em acordo com a Base Nacional Comum Curricular.
A grande dificuldade de ensinar Matemática no Ensino Médio ocorre pela falta de interesse dos alunos com os conteúdos, que, muitas vezes, são ensinados de forma descontextualizada. Quase sempre os conceitos relacionados a polinômios são apresentados na forma de algoritmos, visando à fixação na forma de repetição sem desenvolver uma situação cotidiana para ilustrar o problema. Sendo assim, pretendemos estimular a curiosidade e incentivar o conhecimento sobre os conceitos básicos de polinômios e sobre as técnicas para resolver equações polinomiais. A proposta didática contempla um plano de aula que relaciona os conteúdos com Física, Economia e Administração.
Palavras-chave: Resolução de Problemas. Educação Matemática. Polinômios. Números Complexos.
|
|||||
K-teoria de C*-algebras: comparando a sequência exata de Pimsner-Voiculescu com a abordagem clássica na investigação dos K-grupos de uma C*-álgebra | Lais de Campos Sampaio Cardoso | Defesa de Doutorado | 24/06/2025 | 14:00 | Sala 249 Bloco A |
Lais de Campos Sampaio Cardoso
Severino Toscano do Rego Melo
Matemática
Sala 249 Bloco A
https://meet.google.com/fkj-fser-tdm.
Banca
Severino Toscano do Rego Melo (P) USP
Frank Michael Forger (P) USP
David Pires Dias (P) USP Lucas Affonso Silva Pereira (P) POSDOC-IME Danilo Royer (P) UFSC
Ricardo Bianconi
Cristina Cerri Rodrigo Augusto Higo Mafra Cabral Christian Dieter Jakel Giuliano Boava Pedro Lauridsen Ribeiro
Tese
K-teoria de C*-algebras: comparando a sequência exata de Pimsner-Voiculescu com a abordagem clássica na investigação dos K-grupos de uma C*-álgebra
Usando a sequência exata de Pimsner-Voiculescu, investigamos a K-teoria da C*-álgebra A(T^n) nos casos em que n = 1 e n = 2. Comparamos esta abordagem com a abordagem mais clássica, que usa a seqüência exata fundamental de K-teoria, e discutimos os resultados.
sequência exata de Pimsner-Voiculescu, produto-cruzado, K-teoria, C*-algebra
|
|||||
Avaliação de aterosclerose a partir de análises longitudinais de imagens ultrassonográficas utilizando-se curvas de nível adaptativas por redes neurais convolucionais e mecanismo de atenção reversa | Rafael de Assunção Sampaio | Defesa de Doutorado | 27/06/2025 | 14:00 | Auditório Antonio Gilioli |
Rafael de Assunção Sampaio
Marcel Parolin Jackowski
Ciência da Computação
Auditório Antonio Gilioli
https://teams.microsoft.com/l/meetup-join/
Banca
Marcel Parolin Jackowski (P) USP
Flavio Soares Correa da Silva (P) USP
Itamar de Souza Santos (P) FM-USP Hellinton Hatsuo Takada (P) ITA Suy Anne Rebouças (P) UNIFESP
Fátima de Lourdes dos Santos Nunes Marques
Nitamar Abdala Paulo Andrade Lotufo Nina Sumiko Tomita Hirata Roberto Hirata Junior
Tese
Avaliação de aterosclerose a partir de análises longitudinais de imagens ultrassonográficas utilizando-se curvas de nível adaptativas por redes neurais convolucionais e mecanismo de atenção reversa
A aterosclerose é um processo patológico que pode levar ao estreitamento das artérias devido à formação de placa de gordura. Em decorrência disso, doenças cardiovasculares e acidentes vasculares cerebrais ceifam vidas, sem que se saiba a causa exata. As imagens ultrassonográficas permitem a investigação das artérias carótidas e da avaliação da espessura da camada lúmen-íntima e média-adventícia (EIMC). Tal medida é um indicador importante da evolução da doença em conjunto com exames clínicos. Nesta tese, propõe-se um modelo baseado em curvas de nível adaptativas, cujos parâmetros iniciais são derivados de uma rede neural convolucional, com o objetivo de segmentação e mensuração do EIMC. Para avaliá-lo em conjunto com os dados clínicos longitudinais, a fim de predizer a gravidade de risco em novos casos, é utilizado um modelo de rede neural recorrente com mecanismo de atenção reversa. Os resultados obtidos para uma amostra de casos do ELSA-Brasil quanto à segmentação e à aferição do EIMC são estatisticamente compatíveis com os obtidos por especialistas, bem como permitiram relacionar fatores antecedentes e projetar a evolução esperada do quadro clínico.
aterosclerose, ultrassonografia, curvas de nível, redes neurais
|
|||||
Extração e avaliação de ontologias para a Amazônia Azul: um experimento com modelos de linguagem de grande escala | Vivian Magri Alcaldi Soares | Defesa de Mestrado | 27/06/2025 | 13:00 | Sala 249 Bloco A |
Vivian Magri Alcaldi Soares
Renata Wassermann
Ciência da Computação
Sala 249 Bloco A
https://meet.google.com/pdq-ysgn-fqe.
Banca
Renata Wassermann (P) USP
Sarajane Marques Peres (P) USP
Ana Helena Ozaki Rivera Castillo (P) UIO
Anarosa Alves Franco Brandão
Marlo Vieira dos Santos e Souza Bernardo Nunes Gonçalves
Dissertação
Extração e avaliação de ontologias para a Amazônia Azul: um experimento com modelos de linguagem de grande escala
O território marítimo brasileiro, frequentemente chamado de Amazônia Azul, possui uma importância
inestimável por seus recursos, biodiversidade, importância comercial etc. No entanto, as informações sobre
ela são dispersas. Buscando métodos eficientes com resultados satisfatórios para a tarefa de organizar o
conhecimento sobre essa região na forma de ontologia, uma abordagem envolvendo modelos de linguagem
de grande escala (LLMs, do termo Large Language Models, em inglês) no papel de especialistas para a
construção de hierarquias conceituais tem mostrado resultados promissores. Este trabalho apresenta a
experimentação com a construção de ontologia usando conceitos relacionados à Amazônia Azul utilizando o
GPT, seguida de avaliação humana e análise dos resultados. Este trabalho busca lançar luz sobre o potencial
desses modelos no auxílio à construção de ontologias.
extração de ontologias, avaliação de ontologias, modelos de linguagem de grande escala, Amazônia Azul
|
|||||
Estudo de um problema de Dirichlet não local com ações impulsivas: estimativa de crescimento para as soluções | Deyanira Ribero Pineda | Defesa de Mestrado | 02/07/2025 | 14:00 | Sala 249 Bloco A |
Deyanira Ribero Pineda
Marcone Corrêa Pereira
Matemática Aplicada
Sala 249 Bloco A
meet.google.com/brv-rduy-cci.
Banca
Marcone Corrêa Pereira (P) USP
Flank David Morais Bezerra (P) UFPB
Jaqueline da Costa Ferreira (P) UFES
Antonio Luiz Pereira
Juliana Fernandes da Silva Alessandra Aparecida Verri
Dissertação
Estudo de um problema de Dirichlet não local com ações impulsivas: estimativa de crescimento para as soluções
Neste trabalho, estuda-se um problema de Dirichlet com difusão não local, definida por um núcleo contínuo, de natureza semi-linear e com impulsos. O objetivo é apresentar um estudo auto-contido, iniciando com resultados preliminares referentes à versão linear do problema, para, em seguida, obter estimativas para as soluções do caso semi-linear com impulsos. Na introdução, apresenta-se uma motivação para o modelo proposto, à luz dos fenômenos de reação e difusão.
Problema de Dirichlet, difusão não local, equações de reação-difusão, ação im- pulsiva.
|
|||||
Aprendizado por reforço para caminho de custo mínimo estocástico com becos sem saída | Gustavo de Mari Pereira | Defesa de Mestrado | 04/07/2025 | 18:00 | Sala 132 Bloco A |
Gustavo de Mari Pereira
Leliane Nunes de Barros
Ciência da Computação
Sala 132 Bloco A
https://meet.google.com/pkn-qhgr-rsa.
Banca
Leliane Nunes de Barros (P) USP
Valdinei Freire da Silva (P) USP
Felipe Werndl Trevizan (P) ANU
Fabio Gagliardi Cozman
Reinaldo Augusto da Costa Bianchi Denis Deratani Mauá
Dissertação
Aprendizado por reforço para caminho de custo mínimo estocástico com becos sem saída
Problemas em Aprendizado por Reforço são frequentemente modelados usando Processos de Decisão de Markov de Horizonte Infinito Descontado (do inglês, Infinite Horizon Discounted Markov Decision Processes - IHD-MDPs). No entanto, a comunidade de Planejamento Probabilístico argumenta que problemas de Caminho Mais Curto Estocástico (do inglês, Stochastic Shortest Path - SSP) oferecem uma estrutura mais natural para tarefas orientadas a meta. Em particular, ao lidar com SSPs envolvendo becos-sem-saída (ou seja, estados dos quais o agente não pode mais atingir a meta), MDPs descontados requerem o ajuste cuidadoso do fator de desconto. Alavancados pelos resultados da pesquisa de Planejamento Probabilístico, neste trabalho, propomos modificações em algoritmos clássicos de Aprendizado por Reforço, como Q-learning, para resolver
três classes de SSPs: (i) SSPs sem becos-sem-saída, (ii) SSPs com becos-sem-saída evitáveis e (iii) SSPs com becos-sem-saída inevitáveis. Essas modificações são importantes, pois a equação de Bellman pode divergir em SSPs com becos-sem-saída, permitindo que algoritmos de Aprendizado por Reforço sejam aplicáveis em uma ampla gama de problemas orientados a meta.
Aprendizado por Reforço, Caminho Mais Curto Estocástico, Becos sem Saída, Meta, Planejamento Probabilístico, Aprendizado de Máquina
|
|||||
Métodos baseados em saliência para corte automatizado de vídeo em filmagens de calçadas | Suayder Milhomem Costa | Defesa de Mestrado | 25/07/2025 | 14:00 | Remota |
Suayder Milhomem Costa
Roberto Marcondes Cesar Junior
Ciência da Computação
Remota
https://meet.google.com/kbd-rhbg-dne.
Banca
Roberto Marcondes Cesar Junior (P) USP
Ana Carolina Lorena (P) ITA
Leo Sampaio Ferraz Ribeiro (P) USP
Roberto Hirata Junior
Jurandy Gomes de Almeida Junior Sandra Eliza Fontes de Avila
Dissertação
Métodos baseados em saliência para corte automatizado de vídeo em filmagens de calçadas
A condição da infraestrutura urbana é um aspecto fundamental para garantir a segurança e o bem-estar dos pedestres. Esse fator torna-se ainda mais relevante ao se considerar a acessibilidade para pessoas com mobilidade reduzida, como idosos e pessoas com deficiência visual, que são particularmente vulneráveis a calçadas mal conservadas. Regiões no entorno de hospitais merecem atenção especial — não apenas pelo alto fluxo de pedestres e veículos, mas também por atenderem indivíduos em condições de saúde fragilizadas, que demandam acesso seguro e confiável aos serviços médicos. Nesse contexto, diversas ferramentas computacionais já demonstraram seu potencial, como a classificação de materiais de superfície e a detecção de obstáculos; no entanto, a maioria das soluções existentes depende de dados rotulados, cuja obtenção é dispendiosa e demorada. Para suprir essa lacuna, propõem-se duas estratégias para predição de saliência em vídeos, com o objetivo de reduzir a dependência de rotulagem manual e contribuir para a análise de calçadas. Ambas as estratégias visam, em última instância, o treinamento de preditores de saliência adaptados a características específicas do ambiente urbano. A primeira estratégia explora a atenção visual humana, convertendo cliques de usuários em mapas de atenção por meio de pós-processamento. Essa abordagem demonstra particular eficácia na identificação de obstáculos genéricos em calçadas, como rachaduras e defeitos na superfície. A segunda estratégia emprega o modelo Segment Anything Model 2 (SAM2), aprimorado com etapas adicionais de processamento, para gerar de forma mais eficiente dados de vídeo rotulados voltados a características táteis especializadas. Isso possibilita o treinamento de preditores de saliência capazes de reconhecer elementos-chave do piso tátil, incluindo alterações de direção e placas táteis danificadas. Um diferencial dessa abordagem é sua escalabilidade – com potencial para ser estendida à detecção de uma gama mais ampla de características no ambiente urbano. Esses modelos de saliência constituem a base para um método proposto de recorte automático de vídeos, que visa eliminar regiões irrelevantes dos quadros e destacar as áreas mais significativas com base nos mapas de saliência gerados. Essa abordagem permite identificar regiões-chave em cada quadro e viabiliza aplicações como redirecionamento de vídeo com consciência de conteúdo, foco de atenção em objetos e análise das condições das calçadas, ao evidenciar defeitos e riscos potenciais. Esta pesquisa consolida estudos anteriores (Suayder M. Costa et al., 2024b; Suayder M Costa et al., 2024a; Suayder M Costa et al., 2025), apresentando as seguintes contribuições principais: (1) desenvolvimento de uma ferramenta de anotação de vídeos baseada em cliques, (2) um conjunto de dados anotados de vídeos egocêntricos de calçadas, voltado para predição de saliência, (3) implementação de duas estratégias de detecção de saliência para recorte de vídeos de calçadas, (4) treinamento e avaliação de modelos de saliência para análise estrutural de calçadas, e (5) integração desses modelos em um framework de recorte automático de vídeo. Os resultados experimentais demonstram que os modelos de saliência propostos destacam de forma eficaz informações relevantes em ambientes urbanos, alcançando AUC de 0,582 para atenção baseada em humanos e 0,914 para atenção baseada em elementos táteis, contribuindo assim para o aprimoramento de tecnologias assistivas voltadas a pessoas com deficiência visual.
predição de saliência, infraestrutura urbana, pavimento tátil, recorte de vídeos
|