ESTCB - Teses de Doutoramento
Permanent URI for this collection
Browse
Recent Submissions
- Automatic quantification and classification of breast density in 2D ultrasound imagesPublication . Oliveira, Ângela Cristina Marques de; Marques Oliveira, Angela CristinaO cancro da mama é uma doença grave que afeta milhões de pessoas em todo o mundo, tendo a densidade mamária sido identificada por vários estudos como um fator de risco para o cancro da mama. Assim, a avaliação da densidade mamária é importante na prevenção do cancro da mama. Os ecógrafos disponíveis comercialmente não fornecem uma estimativa da densidade mamária, sendo a avaliação da densidade baseada na observação visual subjetiva de imagens ecográficas, pelos médicos, por esse motivo a exatidão dessa avaliação depende da capacidade e experiência do médico, a qual pode variar entre eles. Têm sido propostos vários métodos para avaliar a densidade mamária em mamografia e ultrassonografia notando que existem vários métodos para a mamografia, mas poucos para ultrassonografia. Neste estudo, foi analisado um conjunto de imagens de ecografias mamárias. A densidade mamária neste conjunto de imagens foi avaliada visualmente por dois médicos, incluindo duas avaliações distintas realizadas pelo primeiro médico em diferentes períodos de tempos.Foi realizada uma avaliação quantitativa e qualitativa utilizando algoritmos semiautomáticos e automáticos com algoritmos de limiar do histograma e do método de Otsu, resultando num total de seis algoritmos. Foi definido um intervalo para a análise quantitativa em que o valor mínimo corresponde ao menor valor das três observações feitas pelos médicos para uma dada imagem e o valor máximo corresponde ao valor mais elevado das referidas observações. Para o algoritmo BDthr128, 56% dos casos pertencem ao intervalo, enquanto que o correspondente valor foi de 73% para o algoritmo BDthrAuto; estes resultados mostram que o algoritmo BDthrAuto tem melhor desempenho que o do que o primeiro, de acordo com a avaliação da densidade mamária feita pelos médicos. É também descrita a aplicação de um algoritmo que isola a glândula mamária em BDthr128 e BDthrAuto resultando nos algoritmos automáticos BDCombo128 e BDComboAuto. O procedimento utilizado para a análise dos resultados de densidade mamária foi o mesmo que o definido para os algoritmos BDthr. Depois de considerar o intervalo com o máximo e o mínimo das observações da mesma imagem, 28% dos valores obtidos aplicando os algoritmos estavam dentro do intervalo para o algoritmoBDCombo128 e 42% para o BDComboAuto,o que mostra que o algoritmo automático Tem melhor desempenho consideração as avaliações dos médicos. Considerando os valores das três observações fornecidas pelos radiologistas e os valores obtidos para a densidade mamária através dos quatro algoritmos desenvolvidos, aos correspondentes valores e para cada imagem de ecografia mamária, foi atribuído consoante o valor, o correspondente tipo considerando a avaliação qualitativa BIRADS (1, 2, 3 ou 4). Com três coincidências com os valores dos radiologistas, foram obtidas 33% das 85 imagens utilizando o algoritmo de BDthr128 e 48% das 85 imagens, utilizando o algoritmo de BDthrAuto. Por outro lado, o algoritmo BDthr128 obteve coincidência, com pelo menos duas das observações dos radiologistas em 69% das 85 imagens enquanto o BDthrAuto obteve 86% na mesma situação. No que diz respeito aos algoritmos automáticos e com três coincidências, o algoritmo BDCombo128 obteve 25% das 85 imagens e o BDComboAuto 47%. Com pelo menos duas coincidências o algoritmo BDCombo128 obteve 58% e o algoritmo BDComboAuto 79% das 85 imagens de ecografia mamária. Para a aplicação do método de Otsu, não foram consideradas imagens com nódulos mamários porque, com base nos resultados obtidos usando os algoritmos anteriores, foi concluído que este tipo de imagens necessita de especial atenção em investigação futura. Assim e para 82 imagens de ecografia mamária, quando foi aplicado o algoritmo semiautomático BDthrOtsu, obtiveram-se 65 % das imagens no intervalo considerado, enquanto para o BDthrAuto esse valor é de cerca de 70%. Quanto aos algoritmos automáticos, tem-se para o algoritmo BDComboAuto, 49% das imagens dentro do intervalo e para o BDComboOtsu o valor é de 61%. No caso da avaliação qualitativa, com total coincidência com as observações dos radiologistas, obtiveram se 46% dos valores para o algoritmo BDthrOtsu e o mesmo valor para o BDthrAuto. Assim, apenas na avaliação quantitativa o algoritmo BDComboOtsu apresenta um melhor desempenho que o BDComboAuto. Pode concluir-se que a densidade mamária pode ser calculada usando um método semiautomático baseado na seleção manual da área glandular nas imagens de ecografias e usando um limiar automático do intervalo de intensidade cinza ou utilizando um método automático baseado na extração automática de área glandular e o limiar de Otsu.
- Estudo do comportamento de materiais britados não ligados em pavimentos rodoviáriosPublication . Luzia, Rosa; Santos, Luís de PicadoOs materiais britados de granulometria extensa têm uma ampla aplicação nas camadas granulares não ligadas de pavimentos rodoviários, nomeadamente em sub-base e base granular. No entanto e apesar dos esforços realizados nesse sentido, o comportamento destes materiais naquele tipo de camadas não se encontra ainda suficientemente caracterizado, em especial no que diz respeito ao seu comportamento mecânico. Com o presente trabalho, cujo objectivo principal foi a caracterização e elaboração de modelos típicos de comportamento para materiais britados de diferentes litologias, aflorantes em Portugal continental, passíveis de serem utilizados em sub-base e base de pavimentos rodoviários, pretendeu contribuir-se para esse estudo. Após verificação de que os materiais britados mais frequentemente utilizados naquele tipo de camadas eram o calcário e o granito, foram seleccionadas três obras, em construção à data do início do presente estudo e nas quais foram utilizados calcário e granito britados, o tipo de materiais mais utilizados naquele tipo de camadas, bem como as pedreiras fornecedoras das mesmas. Procedeu-se depois à caracterização geotécnica e mecânica dos respectivos materiais em laboratório, bem como à caracterização do comportamento mecânico in situ, com a realização do “Ensaio de Carga com o Deflectómetro de Impacto”. A partir dos resultados da caracterização mecânica dos materiais em laboratório procedeu-se à modelação do seu comportamento mecânico resiliente recorrendo a cinco modelos, encontrou-se a melhor simulação para cada um deles e, de entre estes, o que apresentava valores de módulo reversível mais conservadores. Fazendo a aplicação da modelação encontrada a situações típicas de dimensionamento, verificou-se que o valor do módulo resiliente das camadas do tipo das estudadas, obtido recorrendo ao modelo estabelecido e às tensões instaladas (estas, por sua vez, obtidas através de cálculo estrutural dos pavimentos em causa), apresentava valores 3 a 4 vezes inferiores aos geralmente considerados no dimensionamento de pavimentos e, de resto, encontrados com a realização dos ensaios triaxiais cíclicos e dos ensaios não destrutivos in situ. A explicação mais plausível para este facto, no caso dos ensaios in situ, está relacionada com fenómenos de sucção que se desenvolvem nos materiais granulares quando colocados naquele tipo de camadas e, no caso dos ensaios triaxiais cíclicos, com as tensões de confinamento usadas, de acordo com a norma americana seguida. Os factos assinalados conduziram à percepção de que as camadas granulares, de facto, mobilizam geralmente uma rigidez bastante inferior à considerada em processos tradicionais de dimensionamento empírico-mecanicista. Isto significa que muda a forma como ela tem de ser considerada nestes processos. O estudo conduziu, finalmente, a uma proposta de que o dimensionamento passe a ser conduzido com valores iguais de rigidez (módulo de deformabilidade) para as camadas não aglutinadas (camadas granulares e solo de fundação). Esta rigidez seria estabelecida através da sua modelação para camadas granulares usando ensaios triaxiais cíclicos e função do estado de tensão calculado como é usual num processo de dimensionamento como o referido. Isto, sem prejuízo da necessidade de avaliar mais eficazmente, no futuro, a influência do teor em água do material no seu comportamento mecânico.
- Modelo para o ensino de algoritmos de reconstrução de sinal em EngenhariaPublication . Costa, Mónica; Barroso, João Manuel PereiraNesta tese apresenta-se um modelo de ensino de algoritmos de reconstrução de sinal e respetivos condicionalismos inerentes a este problema de engenharia. Para tal desenvolveu-se um protótipo aplicacional, o qual foi denominado de Signal Processing Interpolation Educational Workbench (SPIEW), tendo por finalidade melhorar e avaliar a aprendizagem dos alunos em reconstrução de sinal, recorrendo a um modelo que aborda de forma gráfica e interativa os conceitos de áreas afins mas distintas, desde a Álgebra, até ao Processamento de Sinal passando por exemplo, pela aplicação de Códigos de Correção de Erros. Com o SPIEW é possível estabelecer conjeturas sobre limitação em frequência de sinais, geometrias de padrão de erros, classes de algoritmos de reconstrução de sinal de dimensão do espaço (máxima) ou da ordem do número de amostras perdidas (de dimensão mínima), o uso de métodos de cálculo: diretos, iterativos ou semi‑iterativos para a resolução de sistemas de equações lineares ou medir o desempenho computacional dos métodos ótimos. É possível ainda analisar-se a estabilidade verificando se um problema é bem/mal condicionado, bem como avaliar as condições de convergência dos algoritmos em vários cenários de problemas de interpolação lineares. Os dados utilizados neste trabalho provenientes de sinais:1D-sinais áudio mono e de sensores de biotelemetria; 2D-imagens entre as quais a área de biomecânica; 3D-mapas de profundidade em codificação MDC (Multiple Description Coding) de vídeo 3D; testemunham a aplicabilidade dos métodos propostos em vários contextos permitindo e motivando a discussão de vários cenários reais no ambiente de aprendizagem proposto. O modelo proposto para o estudo de algoritmos de reconstrução de sinal tem por missão permitir aos seus utilizadores melhor compreender ou aprofundar os conceitos inerentes a esta área de estudo. Abordando os conceitos e operações de forma gráfica e interativa, o utilizador tem sempre a oportunidade de visualizar o resultado das operações efetuadas, passo a passo, facilitando a compreensão dos conceitos do processamento de sinal mais abstratos, mesmo para utilizadores com conhecimentos limitados na área. O protótipo aplicacional desenvolvido fornece aos seus utilizadores uma experiência concreta, de um problema real e atual da engenharia. Este permite a simulação de cenários reais de problemas de reconstrução, dando aos alunos a possibilidade de testar diferentes métodos de reconstrução e aferir sobre a eficácia dos mesmos relativamente a tempo de execução e avaliação dos resultados obtidos, podendo garantir-se assim à priori a realização de sistemas de engenharia para determinados (projetos) requisitos iniciais. Comprovou-se através da realização de testes Mean Opinion Score (MOS) que a possibilidade de interação com o utilizador poderá ser efetivamente uma mais-valia para a aprendizagem.
- Controlo visual de robôs manipuladoresPublication . Gonçalves, Paulo; Pinto, João Rogério CaldasNa presente tese é abordado o controlo visual de robôs manipuladores. Sobre o tema é apresentado o estado da arte e ainda as ferramentas de visão por computador necessárias à sua implementação. São apresentadas seis contribuições ao controlo visual de robôs manipuladores, nomeadamente o desenvolvimento de um aparato experimental, dois controladores visuais dinâmicos, a aplicação de filtros fuzzy ao controlo visual cinemático, a modelação fuzzy do sistema robô-câmara e o controlo fuzzy do sistema baseado no modelo inverso. O aparato experimental desenvolvido é composto por três partes, nomeadamente um robô manipulador planar de dois graus de liberdade, um sistema de visão com 50Hz de frequência de amostragem e o software desenvolvido para controlar e interligar os dois componentes anteriores. O aparato experimental desenvolvido permitiu validar experimentalmente, em tempo real, os controladores propostos nesta tese. O controlo visual dinâmico actua directamente os motores do robô, em contraste com o controlo visual cinemático que gera uma velocidade de junta a seguir pelo robô, através da utilização de um controlo interno em velocidade. A primeira contribuição ao controlo visual dinâmico é um controlador baseado na imagem, especialmente desenvolvido para o robô do aparato experimental, na configuração eye-in-hand. A segunda contribuição é o desenvolvimento de um controlador visual dinâmico baseado em posição para a configuração eye-in-hand, não estando restringido a um número fixo de graus de liberdade do robô. É ainda demonstrada a estabilidade assimptótica de ambos os controladores. A aplicação de lógica fuzzy ao controlo visual cinemático de robôs manipuladores baseado na imagem, revelou três contribuições. Com a aplicação de filtros fuzzy ao controlo visual cinemático, com planeamento de trajectórias ou em regulação, o desempenho do controlador é melhorado, i.e. as velocidades de junta do robô diminuem nos instantes iniciais e o carácter oscilatório destas é atenuado quando o tempo de amostragem de visão é elevado. Foi obtido o modelo inverso do sistema robô-câmara através de modelação fuzzy, tendo sido desenvolvida uma metodologia conducente à obtenção do referido modelo. O modelo inverso fuzzy é utilizado como controlador do sistema robô-câmara, com o objectivo de fornecer as velocidades de junta capazes de mover o robô para a posição desejada. Foi ainda utilizado um compensador fuzzy para compensar eventuais discrepâncias entre o modelo obtido e o sistema real.
- Ultrasound based navigation and control for orthopaedic robot surgeryPublication . Torres, Pedro; Martins, Jorge Manuel Mateus; Gonçalves, Paulo Jorge SequeiraA Robótica cirúrgica é uma área em expansão, contribuindo para o aumento da precisão e exatidão dos procedimentos cirúrgicos, além de produzir resultados mais confiáveis e reprodutíveis, minimizando a invasividade, reduzindo as complicações e melhorando a segurança dos pacientes, comparativamente com as técnicas convencionais. A navegação dentro da sala de operações é primordial para o sucesso dos sistemas robóticos. Neste contexto é proposto um novo sistema de navegação, usado na malha de controlo, de um sistema robótico co-manipulado, dedesenvolvido para auxiliar os cirurgiões ortopédicos. Embora possa ter outras aplicações, o sistema foi desenvolvido para realizar um furo na cabeça do fémur, necessário ao implante do fio guia na cirurgia de substituição parcial da anca. Durante a cirurgia, a posição e orientação do osso é obtida através de um processo de registo entre as imagens de US adquiridas em tempo real e o modelo CT do fémur, previamente carregado no pré-operatório. Contrariamente aos sistemas cirúrgicos atuais, não usa nenhum tipo de implante no osso para localizar o fémur, mas sim marcadores passivos colocados na sonda e no robô, e um sistema de medição óptico para medir as suas posições 3D. Os testes experimentais de validação foram realizados num phantom de um fémur humano.
- Modulação e conversão de formatos óticos avançadosPublication . Dionísio, Rogério Pais; Teixeira, António Luís Jesus; Nogueira, Rogério NunesNos últimos anos, a crescente procura e troca de informação tem levado ao aumento de tráfego nas redes de comunicação óticas actuais. As comunicações coerentes, com recurso à amplitude e fase do sinal, ressurgem como uma das técnicas de transmissão capazes de aumentar a eficiência espectral e o rendimento dos canais óticos. Nesse âmbito, este trabalho apresenta um estudo sobre a conversão de formatos de modulação de sinais, usando técnicas exclusivamente no domínio ótico, através de conversão de comprimento de onda, com base no MZI-SOA. Esta técnica, aplicada em nós óticos que interligam redes óticas com débitos binàrios distintos, permite uma maior escalabilidade e eficiência da rede. A tese começa por apresentar uma caracterização experimental detalhada das propriedades estáticas e dinámicas do MZI-SOA. É depois proposto um modelo semi-analítico que descreve a evolução da amplitude e fase do sinal ótico à saída do MZI-SOA. Os coeficientes do modelo são obtidos recorrendo a um algoritmo genético multiobjectivo. O modelo é validado experimentalmente, explorando a dependência do sinal ótico com os parâmetros operacionais do MZISOA. Segue-se a proposta de uma técnica de conversão de formato de modulação de amplitude para modulação de fase contínua. Finalmente, é feito um estudo das potencialidades do MZI-SOA para conversão de formato de modulação de amplitude para modulação QPSK e QAM. Mostra-se a depedência da constelação do sinal com o desvio dos parâmetros operacionais, em torno do valor ótimo. A técnica é validada experimentalmente para modulação QPSK.
- Generic roles: reducing code replicationPublication . Barbosa, F.S.; Aguiar, AdemarFor many years the concept of modularity has been considered a very important part in the development of large software systems. Modules help to manage the system’s complexity by decomposing it in smaller parts. These parts can be assigned to individuals or teams for development. Modules hide the information they manipulate behind an interface, allowing its developers to develop the module independently of any other module in the system. Developers can change the information their module manipulates and even the way it does it without the need to consult other developers, and breaking their code. This enables the interchangeability of modules, allowing one module to be substituted by another without further modifications to the system. It also reduces compiling time as modules can be precompiled. The concept of modularization lead to the dawn of several decompositions techniques, each with its own ideas on how a system should be decomposed into modules. For each decomposition technique and to help programmers extract the most benefits from modularization, several programming languages provide support for expressing modules. In object-oriented decomposition, for example, several programming languages provide support to define abstract data types, usually in the form of classes. Ideally, each module would capture one coherent concept that would deal with a set of coherent concerns related to the module’s concept. Unfortunately that is not always true. Sometimes, modules need to interact in more complicated and intertwined manners. Sometimes, the need to communicate with other modules lead one module to assume concerns that are not related to its main concern. This is, as argued by many authors, because only a single decomposition strategy is used . To avoid this we may need to use more than one decompositions strategy or extend an existing one. Code clones are an outcome of the lack of other decomposition strategies, among others sources. Code cloning in a system is considered a bad thing with multiple drawbacks. One of the more known problems is the inconsistent maintenance: bugs are fixed in some clones, but not in others. Another major objection to the use of cloning is that it degrades the design of the system over time. Awkward, verbose designs lead to the accumulation of irrelevant code that ends up obscuring the original intent of the code. In this dissertation we study the reduction of the code replication using modularity as a cornerstone around which our solution must be based. We intend to reduce code replication using another kind of module, which we can use to extend the object-oriented strategy. The module that we will study is the role. Roles have been used to specify na object’s behavior related to a specific collaboration in the modeling stages of a system. But in the implementation that specification is merged with all the object’s other collaboration behaviors, inside a class. It is a purpose of this dissertation to take the specification from the design phase to the implementation phase and study its impact on the code replication problem. The solution proposed in this dissertation is to use roles as a way to compose classes and thus reducing code replication. To pursue this goal a role language is designed and a suitable compiler is implemented. The JavaStage language allows a programmer to “program with roles”. It introduces several features like a powerful renaming mechanism and to state role dependencies easily. Using JavaStage and roles we were able to identify several refactorings that enables us to write the replicated code as roles thus removing the code clone. The use of these refactorings proved their value when applied to a series of case studies developed to assess the amount of duplicated code that could be removed using roles. As already mentioned, the modularity principles were followed throughout the design of the proposed solution and, to assess the reusability of roles, a role library was started. Its evolution corroborates the idea that roles are reusable modules and can be used as a compositional element.
- Previsão da resistência à fadiga em juntas soldadas reabilitadas por técnicas de refusãoPublication . Ramalho, ArmandoNeste trabalho realizou-se um estudo de fadiga no qual se analisou o efeito das técnicas de refusão TIG e plasma na reabilitação de juntas soldadas em T, fissuradas no pé do cordão. Os resultados obtidos para as juntas como soldadas, melhoradas por refusão TIG, melhoradas por refusão plasma, reabilitadas por refusão TIG e reabilitadas por refusão plasma são apresentados em curvas S-N com intervalo de confiança de 95%. Os benefícios na vida de fadiga das juntas reabilitadas pelas duas técnicas de refusão, foram avaliados através dos resultados experimentais e através de um modelo de estimação baseado na Mecânica da Fractura Linear Elástica. Foram avaliados, pela técnica do furo e por difracção de raios X, os valores das tensões residuais gerados nas diversas juntas, como soldada, melhoradas por refusão TIG ou Plasma e reabilitadas por refusão TIG ou plasma. Foi desenvolvido e validado um modelo de estimação das tensões residuais nas juntas melhoradas por refusão TIG ou plasma, utilizando o programa de elementos finitos MARC.
- Metodologias geoestatísticas para a caracterização e avaliação de rochas ornamentaisPublication . Albuquerque, M.T.D.O trabalho de investigação proposto pretende desenvolver um corpo metodológico que, baseado em índices de qualidade e/ou recuperação, sintetize as diversas características que condicionam o valor in situ das rochas ornamentais (e industriais), permitindo, local e regionalmente, definir zonas de elevada favorabilidade para a produção daqueles materiais. A colheita e o registo da informação em diferentes suportes e a diferentes escalas resultou de um trabalho de campo efectuado em diferentes pedreiras de mármores, xistos e ardósias. Procedeu-se numa primeira fase, à observação, quantificação e codificação das características condicionantes da qualidade da pedra como material de construção e/ou como material ornamental, com particular relevo para a caracterização da fracturação. O desenvolvimento da metodologia para construção de variáveis de síntese (índices) foi, numa segunda fase, implementado recorrendo a métodos da Estatística Multivariada e da Geoestatística. A flexibilidade do método permite o ajuste interactivo de pesos a afectar cada atributo, de acordo com os objectivos de validação perante as oscilações constantes que se verificam no mercado. O mapeamento regional do índice de recuperação para as pedreiras de mármore da região de Vila-Viçosa, integrando informação regional, foi, na última fase, implementado recorrendo à aplicação de metodologias Geoestatísticas como a Krigagem com Deriva Externa e Soft Kriging.
- Propriedades mecânicas residuais após incêndio de betões normaisPublication . Santos, C.C.As estruturas de betão têm em geral um bom comportamento ao fogo. No entanto, estas estruturas podem ser afetadas, dependendo os seus danos da severidade do incêndio. A diminuição da resistência dos elementos estruturais resulta fundamentalmente da degradação das propriedades dos materiais betão e aço, devido às elevadas temperaturas a que estão sujeitos. Se o conhecimento das propriedades mecânicas do betão sujeito a altas temperaturas é já suficientemente completo o mesmo não se poderá dizer em relação às propriedades mecânicas residuais. Assim, a investigação nesta área é de extrema importância para a caracterização da resistência mecânica dos elementos após incêndio e para a tomada de decisão sobre o método de reparação mais apropriado para os elementos. Com o objetivo de contribuir para uma melhor compreensão do comportamento do betão convencional submetido a elevadas temperaturas, foi estabelecido um programa experimental para avaliação das suas propriedades mecânicas residuais após ciclos de aquecimento/arrefecimento. Neste sentido, o trabalho laboratorial realizado compreendeu ensaios de resistência à compressão, resistência à tração direta, resistência à tração por compressão diametral, resistência à flexão, módulo de elasticidade e coeficiente de Poisson. Estudaram-se duas composições de betão usadas na construção civil nacional, uma constituída por agregados calcários e outra por agregados graníticos. Os diferentes provetes de betão foram submetidos a dois tipos de arrefecimento (lento ao ar e brusco por jacto água), dois níveis de carregamento (0,3fcd e 0,7fcd) e diferentes níveis de temperatura (20, 300, 500 e 700ºC). Os resultados deste programa experimental mostram que a temperatura interfere negativamente no comportamento residual do betão, verificando-se que a resistência dos elementos diminui com o aumento da temperatura, podendo atingir uma perda quase total para temperaturas acima dos 600ºC. De igual modo, deve-se atender ao processo de arrefecimento aplicado, dado que quanto mais brusco este for maiores são os danos causados.