Informations

Différence entre la tomographie optique diffuse et la tomographie optique

Différence entre la tomographie optique diffuse et la tomographie optique



We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

Quelles sont les différences entre ces deux modalités ?

Existe-t-il des formes d'OT qui ne sont pas DOT ?


Tomographie optique diffuse à fluorescence tridimensionnelle utilisant l'approche adaptative spatiale antérieure

Traditionnellement, la reconstruction d'images de tomographie optique diffuse de fluorescence (FDOT) nécessite des images anatomiques comme information préalable. Pour intégrer des informations anatomiques sur les tumeurs ou les tissus mous dans FDOT, des équipements et des procédures supplémentaires sont nécessaires, impliquant un co-enregistrement, une injection d'agent de contraste et un alignement.

Méthodes

Ici, nous proposons l'approche spatiale adaptative préalable pour la reconstruction d'images FDOT, mise en œuvre en utilisant une estimation initiale de la taille et de l'emplacement de la tumeur pour les cas simples et multi-tumeurs. Cette technique est utilisée de la manière la plus appropriée lorsque le FDOT est associé à des informations structurelles limitées ou à un système d'imagerie structurelle différent. Cette méthode modifie itérativement la localisation à partir de la localisation estimée.

Résultats

Nous effectuons des simulations, des expériences fantômes et des expériences sur les tissus de viande en utilisant la méthode adaptative spatiale antérieure.

Conclusion

Les résultats de ces études démontrent la faisabilité de l'approche a priori spatiale adaptative pour l'imagerie FDOT.

Ceci est un aperçu du contenu de l'abonnement, accessible via votre institution.


Différence entre la tomographie optique diffuse et la tomographie optique - Biologie

1 Département de physique, Institut indien des sciences, Bangalore, Inde

2 Département d'instrumentation et de physique appliquée, Institut indien des sciences, Bangalore, Inde

Courriel : * [email protected], [email protected], [email protected]

Copyright & copie 2013 Samir Kumar Biswas et al. Il s'agit d'un article en libre accès distribué sous la licence d'attribution Creative Commons, qui permet une utilisation, une distribution et une reproduction sans restriction sur n'importe quel support, à condition que l'œuvre originale soit correctement citée.

Reçu le 22 octobre 2013 révisé le 22 novembre 2013 accepté le 29 novembre 2013

Mots clés: Tomographie optique diffuse Méthodes Gauss Newton Approches Broyden et Adjoint Broyden Méthode pseudo-dynamique

La tomographie optique diffuse (DOT) utilisant la lumière proche infrarouge (NIR) est un outil prometteur pour l'imagerie non invasive des tissus profonds. L'approche est capable de reconstruire les paramètres optiques quantitatifs (coefficient d'absorption et coefficient de diffusion) d'un tissu mou. La motivation pour reconstruire la variation des propriétés optiques est qu'elle et, en particulier, la variation du coefficient d'absorption, peuvent être utilisées pour diagnostiquer différents états métaboliques et pathologiques des tissus. En DOT, comme toute autre modalité d'imagerie médicale, l'objectif est de produire une reconstruction avec une bonne résolution spatiale et en contraste avec les mesures bruitées. La récupération des paramètres connue sous le nom de problème inverse dans les tissus biologiques hautement diffusants est un problème non linéaire et mal posé et est généralement résolu par des méthodes itératives. L'algorithme utilise un modèle avancé pour arriver à une densité de flux de prédiction à la limite du tissu. Le modèle direct utilise des modèles de transport de la lumière tels que la simulation stochastique de Monte Carlo ou des méthodes déterministes telles que l'équation de transfert radioactif (RTE) ou une version simplifiée de RTE à savoir l'équation de diffusion (DE). La méthode des éléments finis (FEM) est utilisée pour discrétiser l'équation de diffusion. L'algorithme fréquemment utilisé pour résoudre le problème inverse est la reconstruction itérative d'images basée sur un modèle (N-MoBIIR). De nombreuses variantes des approches de Gauss-Newton sont proposées pour la reconstruction DOT. Les objectifs de ces développements sont 1) de réduire la complexité de calcul 2) d'améliorer la récupération spatiale et 3) d'améliorer la récupération de contraste. Ces algorithmes sont 1) MoBIIR basé sur la Hesse 2) MoBIIR basé sur Broyden 3) MoBIIR basé sur Broyden adjoint et 4) approches pseudo-dynamiques.

La tomographie optique diffuse (DOT) fournit une approche pour sonder les milieux hautement diffusants tels que les tissus à l'aide de la lumière proche infrarouge (NIR) à faible énergie en utilisant les mesures des limites pour reconstruire des images de la carte des paramètres optiques du média. Une lumière laser NIR de faible puissance (1 à 10 milliwatts), modulée par un signal sinusoïdal de 100 MHz, passe à travers un tissu, et l'intensité et la phase lumineuses existantes sont mesurées sur la limite. Les effets prédominants sont l'absorption optique et la diffusion. Le transport des photons à travers un tissu biologique est bien établi grâce à l'équation de diffusion [1-6] qui modélise la propagation de la lumière à travers les milieux turbides hautement diffusants.

Le modèle direct utilise fréquemment des modèles de transport de la lumière tels que la simulation stochastique de Monte Carlo [7] ou des méthodes déterministes telles que l'équation de transfert radiatif (RTE) [8]. Sous certaines conditions telles que, le problème du transport de la lumière peut être simplifié par l'équation de diffusion (DE) [9]. Le RTE est le modèle le plus approprié pour le transport de la lumière à travers un matériau inhomogène. Le RTE présente de nombreux avantages dont la possibilité de modéliser le transport de la lumière à travers un milieu tissulaire irrégulier. Cependant, il est très coûteux en calcul. Ainsi, les systèmes DOT utilisent l'approche basée sur la diffusion. La méthode Gauss-Newton [2] est la plus fréquemment utilisée pour résoudre le problème DOT. Les méthodes basées sur Monte-Carlo sont des méthodes de reconstruction de perturbations [10-12]. Les méthodes numériques utilisées pour discrétiser l'ED sont la méthode des différences finies (FDM) [13], et la méthode des éléments finis (FEM) [2]. Des modèles hybrides FEM avec RTE pour les emplacements proches de la source et DE pour d'autres régions ont également été considérés [14]. Le schéma de discrétisation FEM considère que la région de solution comprend de nombreuses petites sous-régions minuscules interconnectées et donne une approximation par morceaux de l'équation principale, c'est-à-dire que l'équation différentielle partielle complexe est réduite à un ensemble d'équations simultanées linéaires ou non linéaires. Ainsi, le problème de reconstruction est un problème d'optimisation non linéaire où la fonction objectif définie comme la norme de la différence entre le flux prédit du modèle et les données de mesure réelles pour un ensemble donné de paramètres optiques est minimisée. Une méthode pour surmonter le mal-posé consiste à incorporer un paramètre de régularisation. Les méthodes de régularisation remplacent le problème mal posé d'origine par un problème mieux conditionné mais lié afin de diminuer les effets du bruit dans les données et de produire une solution régularisée au problème d'origine.

Une version discrétisée de l'équation de diffusion est résolue en utilisant la méthode des éléments finis (FEM) pour fournir le modèle direct pour le transport des photons. La solution du problème direct est utilisée pour calculer le Jacobien et l'équation simultanée est résolue en utilisant la recherche de gradient conjugué.

Dans cette étude, nous examinons de nombreuses approches utilisées pour résoudre le problème DOT. En DOT, le nombre d'inconnues dépasse de loin le nombre de mesures. Une procédure de reconstruction précise et fiable est essentielle pour faire du DOT un outil de diagnostic pratique. Les méthodes itératives sont souvent utilisées pour résoudre ce type de problèmes à la fois non linéaires et mal posés basés sur l'optimisation non linéaire afin de minimiser une fonction d'inadéquation du modèle de données. L'algorithme comprend une procédure en deux étapes. La première étape implique la propagation de la lumière pour générer les données dites « forward » ou données de prédiction et une procédure de mise à jour qui utilise la différence entre les données de prédiction et les données de mesure pour la distribution incrémentielle des paramètres. Pour la mise à jour des paramètres, on utilise souvent une variante de la méthode de Newton dans l'espoir de produire la mise à jour des paramètres dans le bon sens conduisant à la minimisation de la fonctionnelle d'erreur. Cela implique le calcul du Jacobien de l'équation de propagation de la lumière vers l'avant à chaque itération. L'approche est appelée reconstruction d'image itérative basée sur un modèle (MoBIIR).

Le DOT implique un bloc de calcul intense qui récupère de manière itérative des vecteurs de paramètres discrétisés inconnus à partir de données de mesure de limites partielles et bruitées. Mal posé, le problème de la reconstruction nécessite souvent une régularisation pour donner des résultats significatifs. Pour maintenir la dimension du vecteur de paramètres inconnus dans des limites raisonnables et garantir ainsi que la procédure d'inversion est moins mal posée et moins maniable, le DOT tente généralement de résoudre uniquement les problèmes 2D, en récupérant des sections transversales 2D avec lesquelles les images 3D pourrait être construit en empilant plusieurs plans 2-D. La difficulté la plus redoutable pour traverser un problème 3D à part entière est l'augmentation disproportionnée de la dimension du vecteur de paramètre (une augmentation typique de dix fois) par rapport à la dimension des données où l'on ne peut pas s'attendre à une augmentation au-delà de 2 à 3 fois. Cela rend le problème de reconstruction plus gravement mal posé dans la mesure où les itérations sont rendues insolubles en raison d'espaces nuls plus grands pour les matrices du système (discrétisées). Au fur et à mesure que l'itération progresse, la non-concordance (, la différence entre la valeur calculée et la valeur mesurée) diminue.

Le principal inconvénient d'un algorithme MoBIIR basé sur Newton (N-MoBIIR) est la complexité de calcul de l'algorithme. Le calcul jacobien à chaque itération est à l'origine du temps de calcul élevé. L'approche de Broyden est proposée pour réduire le temps de calcul d'un ordre de grandeur. Dans l'approche basée sur Broyden, le Jacobien n'est calculé qu'une seule fois avec une distribution uniforme des paramètres optiques pour commencer, puis à chaque itération. Il est mis à jour sur la région d'intérêt (ROI) uniquement en utilisant une procédure de mise à jour de rang 1. L'idée derrière la mise à jour Jacobienne (J) est le gradient de pas de l'opérateur adjoint à la ROI qui localise les inhomogénéités. L'autre difficulté du MoBIIR est qu'il nécessite une régularisation pour atténuer le mal posé du problème. Cependant, le choix d'un paramètre de régularisation est arbitraire. Une voie alternative à la solution itérative ci-dessus consiste à introduire une dynamique artificielle dans le système et à traiter la réponse en régime permanent du système dynamique évoluant artificiellement comme une solution. Cette alternative évite également une inversion explicite de l'opérateur linéarisé comme dans l'équation de mise à jour de Gauss-Newton et permet ainsi de s'en sortir avec la régularisation.

L'équation de diffusion de la lumière dans le domaine fréquentiel est,

(1)

est le flux de photons, est le coefficient de diffusion et est donné par

(2)

et sont le coefficient d'absorption et le coefficient de diffusion réduit respectivement. Le photon d'entrée provient d'une source d'intensité constante situé à. Le signal optique de sortie transmis mesuré par un tube photomultiplicateur.

Le problème DOT est représenté par un opérateur non linéaire donné par donne des données prédites par le modèle sur le domaine et M est le vecteur de mesure calculé obtenu à partir de et.

(3)

Le problème de reconstruction d'image cherche à trouver une solution telle que la différence entre le modèle prédit et la mesure expérimentale est minimale. Pour minimiser l'erreur, la fonction de coût est minimisé et le coût fonctionnel est défini comme [1]

(4)

est norme. Grâce aux algorithmes de Gauss-Newton et Levenberg-Marquardt [1,15,16], la forme minimisée de l'équation ci-dessus est donnée par,

(5)

est la différence entre les données prédites par le modèle et données de mesure expérimentales

, et J est la matrice Jacobienne qui a été évaluée à chaque itération de l'algorithme MoBIIR ( Figure 1 ). L'équation ci-dessus est l'expression de mise à jour du paramètre. Dans l'équation 5, I est la matrice identité dont la dimension est égale à la dimension de JJ. est le paramètre de régularisation et l'ordre de grandeur de Je devrais être proche de celui de JJ. L'impact du bruit et sur la reconstruction est discutée dans la section des résultats. La figure 1 donne un organigramme de l'approche basée sur Gauss Newton.

Figure 1 . Organigramme pour la reconstruction d'images par l'algorithme MoBIIR basé sur la méthode de Newton.

2.2. Approche basée sur la toile de jute

L'algorithme de reconstruction itérative récupère une approximation de à partir de l'ensemble des mesures aux limites. En développant directement l'équation de Taylor 3, et en utilisant un terme quadratique impliquant Hessian, l'équation de perturbation peut être écrite comme,

(6)

est le Hessien correspondant à la mesure. Pour d nombre de détecteurs, l'équation ci-dessus peut être réécrite comme,

(7)

L'équation 7 est l'équation de mise à jour obtenue à partir de l'équation de perturbation quadratique. Le terme est souvent observé comme dominant en diagonale et peut être noté par, en négligeant les termes hors diagonale. Ainsi, grâce à l'incorporation du terme de dérivée seconde, l'équation de mise à jour a une forme généralisée avec un terme de régularisation cohérent physiquement.

La contrainte majeure de la méthode de Newton est l'évaluation jacobienne coûteuse en temps de calcul [17,18]. Les méthodes quasi-Newton fournissent un Jacobien approximatif [19]. Samir et al [5] ont développé un algorithme utilisant la méthode de Broyden [17,18,20] pour améliorer l'opération de mise à jour Jacobienne, qui se trouve être le principal goulot d'étranglement de calcul du MoBIIR basé sur Newton. La méthode de Broyden se rapproche de la direction de Newton en utilisant une approximation du Jacobien qui est mise à jour au fur et à mesure que l'itération progresse. La méthode de Broyden utilise l'estimation actuelle du Jacobien et l'améliore en prenant la solution de l'équation sécante qui est une modification minimale de. À cette fin, on peut appliquer des mises à jour de rang un. Nous avons supposé que nous avons une matrice non singulière et nous souhaitons produire une approximation grâce aux mises à jour de rang 1 [21]. La solution directe peut être exprimée en termes de dérivées de la solution directe en utilisant le développement de Taylor comme,

(8)

L'équation de mise à jour jacobienne de Broyden devient

(9)

L'équation 9 est appelée équation de mise à jour de Broyden. Dans la méthode de Broyden, il n'y a aucune indication sur l'estimation jacobienne initiale [22]. La valeur initiale du Jacobien est calculé par des méthodes analytiques basées sur des principes adjoints. On constate que puisque la mise à jour Jacobienne n'est qu'approximative, le nombre d'itérations requis par la méthode de Broyden pour la convergence est plus élevé que celui des méthodes de Gauss-Newton. Cela peut être amélioré en recalculant le Jacobien à l'aide de la méthode adjointe lorsque le Jacobien se trouve en dehors du domaine de confiance (lorsque la MSE de l'estimation actuelle est inférieure à la MSE de l'estimation précédente). Si la supposition initiale est suffisamment proche du paramètre optique réel puis le est suffisamment proche de et la solution converge q-superlinéairement vers. La caractéristique la plus notable de l'approche Broyden est qu'elle évite le calcul direct du Jacobien, fournissant ainsi un algorithme plus rapide pour la reconstruction DOT.

2.4. MoBIIR Adjoint basé à Broyden

La méthode de mise à jour Adjoint Broyden [23] basée sur la sécante au moindre changement est une autre approche pour mettre à jour le système Jacobien approximativement.

Les conditions de tangente directe et adjointe sont

et

respectivement. Par rapport à la norme de Frobenius, la mise à jour du moindre changement d'une matrice à une matrice

satisfait la condition de sécante directe et la condition sécante adjointe, pour les directions normalisées et, et est donné comme [23]

(10)

,. La mise à jour de rang 1 pour la mise à jour Jacobienne basée sur la méthode adjointe est donnée par [5],

(11)

La mise à jour Adjoint Broyden est classée en fonction du choix de. Pour simplifier, nous considérons uniquement la direction sécante [23] qui est définie comme,

(12)

est la taille du pas et est estimée par la méthode de recherche de ligne. L'équation ci-dessus a été résolue dans la reconstruction d'image MoBIIR basée sur Adjoint Broyden.

L' organigramme de reconstruction d' image à l' aide de MoBIIR basé sur Broyden est illustré à la figure 2 . Le Jacobien est mis à jour par l'Équation 9 et l'Équation 11 pour la méthode de Broyden et la méthode de Broyden adjointe respectivement.

Figure 2 . Organigramme pour la reconstruction d'images par l'algorithme MoBIIR basé sur Broyden (équation 9).

2.5. Approches pseudo-dynamiques

L'imagerie tomographique optique diffuse est un problème mal posé, et un terme de régularisation est utilisé dans la reconstruction d'images pour surmonter cette limitation. Plusieurs schémas de régularisation ont été proposés dans la littérature [24]. Cependant, choisir le bon paramètre de régularisation est une tâche fastidieuse. Une voie peu sensible à la régularisation pour calculer les mises à jour des paramètres en utilisant les équations normales Equation 5 ou Equation 7 consiste à introduire une variable temporelle artificielle [25,26]. De tels systèmes pseudodynamiques, généralement sous la forme d'équations différentielles ordinaires (ODE-s), peuvent ensuite être intégrés et le vecteur de paramètres mis à jour récupéré une fois qu'un pseudo-état d'équilibre est atteint ou qu'une règle d'arrêt appropriée est appliquée au profil de paramètre évolutif ( cette dernière étant nécessaire si les données mesurées sont peu nombreuses et bruitées). Samir et al [5] ont utilisé l'approche ci-dessus pour arriver à une reconstruction d'image DOT.

Pour le problème DOT, les ODE-s linéarisés pseudo-temps pour l'équation normale de Gauss-Newton pour est donné par:

(13)

, ,

et

lorsque nous utilisons l'équation 5. Pour le cas où la perturbation quadratique est utilisée (équation 7), alors S est remplacé par

(14)

Nous considérons d'abord le cas linéaire dans lequel l'équation 5 est utilisée pour arriver au système pseudo-dynamique. En initiant la récursivité pseudo-temporelle pour, le vecteur de paramètre initial peut être prise correspondant à la valeur de fond qui est supposée connue. L'équation 13 peut être intégrée sous forme fermée conduisant à l'évolution pseudo-temporelle suivante,

(15)

et. Dans le cas idéal, lorsque les données mesurées sont sans bruit, la séquence a un point limite, ce qui donne la reconstruction souhaitée. Dans un scénario pratique où les données mesurées sont bruyantes, c'est-à-dire avec étant une mesure de la «force» du bruit. Dans ce cas, une règle d'arrêt peut devoir être imposée pour que la séquence est arrêté à (

est le temps d'arrêt) avec.

La figure 3 donne les résultats de la reconstruction avec une seule inhomogénéité encastrée. La figure 3 (a) est le fantôme avec une inhomogénéité. Les images reconstruites à l'aide du MoBIIR basé sur Newton, du MoBIIR basé sur Broyden et du MoBIIR basé sur l'adjoint Broyden sont données respectivement en (b), (c) et (d).

La figure 4 donne les performances de l'algorithme. On voit que Broyden adjoint converge plus rapidement par rapport aux autres algorithmes.La figure 4 (a) montre que les méthodes de Newton, Broyden et Broyden adjoint convergent à, et itérations respectivement. La section transversale à travers le centre des inhomogénéités est représentée sur la figure 4 (b).

La figure 5 donne les résultats de la reconstruction avec deux inhomogénéités intégrées. La figure 5 (a) est le fantôme. Les images reconstruites en utilisant le MoBIIR basé sur Newton, le MoBIIR basé sur Broyden et le MoBIIR basé sur Broyden adjoint sont données dans (b), (c) et (d).

La figure 6 donne les performances de l'algorithme avec deux inhomogénéités. La MSE d'images reconstruites avec deux inhomogénéités est illustrée à la figure 6 (a). Figure 6 (b)

(une)(b)

Figure 3 . (a) Fantôme avec une inhomogénéité ayant et de taille 8,2 mm à (0, 19,2). Images reconstruites en utilisant (b) MoBIIR basé sur Newton (c) MoBIIR basé sur Broyden (d) MoBIIR basé sur Broyden Adjoint.

(un B)

Figure 4 . (a) Méthodes de Newton, Broyden et Broyden adjoint. Ils convergent à, et itérations respectivement (b) Coupe transversale par le centre des inhomogénéités pour les méthodes de Newton, Broyden et Broyden adjoint.

(une)(b)

Figure 5 . (a) Fantôme simulé original avec deux inhomogénéités Le des inhomogénéités sont 0,02 et 0,015 et sont respectivement à (0, �.2) et (0, 19.2) Résultats reconstruits en utilisant (b) Newton (c) Broyden (d) méthode de Broyden adjoint.

montre que les méthodes de Newton, Broyden et Broyden adjoint convergent à, et itérations respectivement. Le tracé de la ligne passant par le centre des inhomogénéités est illustré à la figure 6 (c).

La figure 7 donne les résultats de la reconstruction avec deux inhomogénéités encastrées. La figure 7 (a) est l'image reconstruite par la méthode de Gauss-Newton. Les figures 7(b) et (c) sont les images reconstruites par un algorithme de marche temporel pseudo-dynamique linéaire et par un algorithme de marche temporel pseudo-dynamique non linéaire (Hessian intégré) respectivement.

La figure 8 analyse les résultats. Le tracé de la ligne passant par le centre des inhomogénéités est illustré à la figure 8 (a). La variation de l'erreur quadratique moyenne normalisée (MSE) avec l'itération est illustrée à la figure 8 (b). La ligne bleue représente la méthode de Gauss-Newton et la ligne verte représente l'algorithme de correspondance temporelle pseudo-dynamique.

Dans cette étude, nous examinons de nombreuses approches utilisées pour résoudre le problème DOT. Comme tout algorithme de reconstruction d'images médicales, l'objectif principal est de reconstruire une image haute résolution avec un bon contraste. Depuis le

(une)(b)(c)

Graphique 6 . (a) MSE d'images reconstruites avec deux inhomogénéités (b) Les méthodes de Newton, Broyden et Broyden adjoint convergent à, et itérations respectivement (c) Tracé linéaire passant par le centre des inhomogénéités en utilisant les algorithmes de Newton et proposés.

(une)(b)(c)

Graphique 7 . (a) Image reconstruite par la méthode de Gauss-Newton (b) Image reconstruite par algorithme de marche temporel pseudo-dynamique linéaire (c) Image reconstruite par algorithme de marche temporel pseudo-dynamique non linéaire (Hessian intégré)

(une)(b)

Figure 8 . (a) Le tracé de la ligne transversale à travers l'inhomogénéité reconstruite (b) La variation de l'erreur quadratique moyenne normalisée (MSE) avec l'itération. La ligne bleue représente la méthode de Gauss-Newton et la ligne verte représente l'algorithme de correspondance temporelle pseudo-dynamique.

problème est non linéaire et mal posé, les méthodes itératives sont souvent utilisées pour résoudre ce type de problèmes. Nous avons résumé quelques études que nous avons entreprises à cet égard. Ce sont 1) MoBIIR basé sur Gauss-Newton 2) Gauss-Newton quadratique, MoBIIR basé sur Broyden 3) MoBIIR basé sur Broyden adjoint et approches pseudo-dynamiques.


2. Méthodologie

2.1. Solveur d'éléments finis

Nous considérons l'approximation de la diffusion de l'équation de transfert radiatif [24, 25] dans le domaine permanent, temporel ou fréquentiel comme modèle avancé pour le transport de la lumière dans les tissus. Pour les problèmes en régime permanent, la densité de photons à valeur réelle stationnaire à l'intérieur du milieu provenant d'une source à ondes continues est calculée tandis que pour les problèmes du domaine fréquentiel, la source est modulée en amplitude, donnant lieu à une solution à valeur complexe d'une densité de photons répartition des vagues. Dans les problèmes du domaine temporel, la source est considérée comme une impulsion delta dans le temps et la mesure consiste en la dispersion temporelle du signal transmis. Étant donné un domaine compact Ω délimité par ∂Ω, l'équation de diffusion [26] dans le domaine temporel et fréquentiel est donnée par

respectivement, où ω est la fréquence de modulation de la source angulaire, κ(r) 𠂞t  μ une(r) sont les coefficients de diffusion et d'absorption variant dans l'espace, respectivement, où κ = [3(μ une + μ s)] 𢄡 avec coefficient de diffusion μ s. c est la vitesse de la lumière dans le milieu, et ϕ ,    et    ϕ ^ sont les champs de densité de photons réels et complexes. Pour simplifier la suite, nous utilisons ϕ pour désigner les propriétés réelles ou complexes, selon le cas.

Une condition aux limites de type Robin [27] s'applique à ∂Ω,

q est une distribution de source réelle ou à valeurs complexes, selon le cas, ζ(m) est un terme de réflectance limite incorporant l'indice de réfraction m à l'interface tissu-air, et ν est la normale à la surface au point de la surface ξ. L'opérateur de frontière définissant l'exitance Γ à ∂Ω est donnée par la carte de Dirichlet à Neumann

L'ensemble des mesures oui je à partir d'une distribution source q je est obtenu en intégrant Γ sur les profils de mesure m j(ξ) à la surface

Pour le problème du domaine temporel, oui je sont les profils de dispersion temporelle des intensités des signaux reçus tandis que, pour le problème du domaine fréquentiel, oui je sont donnés par les valeurs d'exitance complexes, généralement exprimées par l'amplitude logarithmique ln⁡UNE et déphasage φ [28],

Compte tenu de l'ensemble des données à terme oui = <oui je> de toutes les mesures de toutes les distributions sources, (1) à (4) définissent le modèle direct F[κ, μ une] = oui qui mappe une distribution de paramètres κ, μ une aux mesures pour une géométrie de domaine, une fréquence de modulation, des distributions de source et des profils de mesure donnés.

Le modèle avancé est résolu numériquement en utilisant une approche par éléments finis. Une division de domaine Ω en éléments tétraédriques définis par N les nœuds de sommet fournissent une base polynomiale par morceaux pour les paramètres κ, μ une, et densité de photons ϕ. Le champ approximatif ϕ h (r) à tout moment rΩ est donnée par interpolation des coefficients nodaux ϕ je en utilisant des fonctions de forme polynomiale par morceaux vous je(r)

Approximations polynomiales par morceaux κ h , μ une h aux paramètres continus, définis par les coefficients nodaux κ je, μ une,je sont construits de la même manière. L'application d'une approche de Galerkin transforme le problème continu de (1) en un N-problème discret dimensionnel de recherche des valeurs de champ nodal Φ = <ϕ je> à tous les nœuds je, étant donné l'ensemble des paramètres nodaux X = <κ je, μ une,je>. Pour le problème du domaine fréquentiel, le système linéaire résultant est donné par


Discussion

Au cours des dernières années, l'OCT a été rapidement mis en œuvre dans le diagnostic 7,13,66 et la surveillance des maladies de la rétine 67,68. Actuellement, de telles mesures sont largement utilisées chez les humains 69,70,71, mais ne sont pas couramment utilisées chez les animaux (Fig. 6). Par conséquent, il s'agit du premier rapport d'une segmentation DL automatisée des compartiments vitréo-rétiniens et choroïdiens chez des singes cynomolgus sains, une espèce couramment utilisée comme modèles animaux de maladies humaines ainsi que pour l'évaluation de l'innocuité dans les essais précliniques. La traduction d'un cadre de ML précédemment développé et reproductible chez l'homme 24 à l'animal a été un succès. Cela suggère que le cadre de base de la DL était également applicable aux animaux après que la LM ait été spécifiquement ajustée et entraînée sur les données animales.

une Une coloration histologique à haute résolution à l'hématoxyline et à l'éosine d'une coupe transversale incluse en paraffine d'un œil de singe cynomolgus normal. b OCT B-scan correspondant d'un autre œil de singe cynomolgus. Les deux images illustrent la bordure vitré-rétine (ILM, flèche simple), la partie interne de la choriocapillaire (CCi, doubles flèches) et l'interface choroïde-sclérotique (CSI, pointes de flèche).

Alors que le ML a amélioré la découverte de modèles compliqués dans les données OCT et a montré des performances similaires à celles des humains 37 , il existe toujours un besoin non satisfait de mieux comprendre comment le ML apprend exactement 72,73,74. En règle générale, les données sont insérées dans un environnement de ML et les résultats produits de l'autre côté sont souvent associés à un degré élevé d'incertitude quant à ce qui se passe entre les deux. C'est ce qu'on appelle la boîte noire ML (BBX). Clarifier cette boîte noire implique de créer une approche ML complète idéalement conçue pour l'échelle cognitive humaine.

Ainsi, pour résoudre une partie de ce problème de boîte noire et favoriser la transparence, nous proposons un concept d'affichage ML appelé technique T-REX. T-REX est basé sur trois composants ou engrenages principaux : la génération de la vérité terrain par plusieurs niveleuses indépendantes, le calcul des distances de Hamming entre toutes les niveleuses et les prédictions de la machine, et une visualisation de données sophistiquée appelée enregistrement neuronal (NR) de l'apprentissage automatique. Par analogie à une boîte de vitesses mécanique, constituée d'un arrangement de pièces de machine avec divers engrenages interconnectés, nous comprenons qu'une boîte de vitesses ML est composée d'éléments logiciels affinés qui, lorsqu'ils sont correctement liés, devraient donner un aperçu du fonctionnement interne de l'ensemble de la machine. . En ce sens, le processus d'apprentissage ML recevrait une appréciation meilleure et appropriée pour déterminer quelles données caractéristiques l'algorithme utilise pour prendre des décisions. Compte tenu du chevauchement entre les neurosciences et l'apprentissage automatique, nous entendons par la notion de NR l'enregistrement et l'affichage visuel des performances prédictives d'un algorithme d'apprentissage automatique et des évaluateurs humains liés à l'ambiguïté des données de vérité terrain, de sorte que les valeurs sont présentées dans un manière complète aux experts en ML, mais conviennent également aux personnes ayant un niveau d'expertise en ML inférieur. Ceci est encore plus important pour atteindre un public plus large afin que les chercheurs en dehors du domaine du ML qui sont moins familiers avec les complexités du ML puissent obtenir une approche plus directe des résultats.

Pour faciliter la compréhension des valeurs de distance de Hamming, des représentations visuelles des données ont été réalisées à l'aide de tracés MDS (Fig. 4) et d'un tracé de carte thermique (Fig. 5). En ce qui concerne ce qui précède, cette forme d'enregistrement neuronal permet aux scientifiques des données, aux régulateurs et aux utilisateurs finaux comme les médecins de mieux comprendre l'impact que chaque évaluateur humain a eu sur les performances prédictives d'un modèle d'apprentissage automatique formé et d'améliorer ainsi la compréhension des processus de décision. Par conséquent, une valeur ajoutée intéressante de cette étude est qu'il est désormais possible de développer une compréhension plus détaillée de ce qu'un CNN valorise dans l'apprentissage de chaque annotation d'image OCT. Ainsi, en ce qui concerne le processus décisionnel d'un CNN, la profondeur du niveau de détail considéré en bref, la granularité de la décision ML a été augmentée. La méthodologie T-REX proposée a montré quelle partie de la vérité terrain était la plus importante : en général, les niveleuses 1 et 2 étaient plus pertinentes que la niveleuse 3 car le CNN était presque toujours situé plus près de g1 et g2 (Figs. 4 et 5). Ainsi, g1 et g2 semblent avoir davantage influencé le CNN au cours de l'apprentissage.

Fait intéressant, ces résultats sont également en corrélation avec le niveau d'expertise des PTOM. Les gradeurs g1 et g2 ont un niveau d'expertise plus élevé en imagerie OCT que les gradeurs g3. Ainsi, on pourrait supposer que g1 et g2 ont généré des annotations plus cohérentes, ce qui aurait pu rapprocher les prédictions de CNN d'elles que de la niveleuse g3. On peut supposer que cette performance adaptative est dirigée, c'est-à-dire qu'elle semble être « orientée vers un but ». Un tel mode de comportement est généralement attribué au terme « intelligence ».

Dans l'ensemble, une bonne performance prédictive a été observée : la variabilité globale moyenne mineure par pixel entre le CNN entraîné et les correcteurs humains (1,75 %) était nettement inférieure à la variabilité interhumaine (2,02 %). La gamme brute de variabilité était conforme aux rapports précédents 75,76. Nos résultats ont dévoilé les compétences et le comportement de résolution de problèmes de CNN en tant que forme d'apprentissage, une sorte de moyenne robuste parmi tous les évaluateurs humains. Ce fait soutient en outre l'utilisation d'outils basés sur DL pour la tâche de segmentation d'images, d'autant plus que le CNN effectue la même tâche de manière répétée en produisant le même résultat, indépendamment de tout état physique ou mental par rapport aux humains.

Pour comparer nos résultats de la segmentation OCT à des travaux antérieurs, nous avons mis nos résultats dans le contexte d'une étude analogue chez l'homme 24 . La conception de l'étude diffère, mais la comparaison donne néanmoins un aperçu des performances de CNN. Dans l'étude avec des humains 24 , un CNN a été formé sur la base d'un seul évaluateur expérimenté et vérifié avec plusieurs évaluateurs humains à trois moments dans le temps. En revanche, dans cette étude, le CNN a été formé et vérifié avec les trois mêmes évaluateurs humains qui ont étiqueté les images à un moment donné. Dans l'étude humaine, la variabilité interhumaine globale était de 2,3% et la variabilité globale humain-CNN était de 2,0%, tandis que la variabilité de trois passages de l'évaluateur de vérité terrain avec le CNN était de 1,6%. La gamme de variabilité était également conforme aux rapports précédents 75,76 . Comme ces chiffres sont plus élevés que dans l'étude sur le singe présentée ici, les améliorations réelles de la conception de l'étude pourraient par conséquent augmenter les performances du CNN présenté. Le modèle de comportement d'équilibrage lors de la prédiction CNN, tel que dévoilé avec T-REX, révèle que dans une telle étude ML, il est conseillé de former le CNN avec plusieurs évaluateurs, et pas seulement avec un seul expert de référence. La conception de l'étude proposée rend un CNN plus robuste et comprend intrinsèquement une validation externe 37 .

En analysant les modèles de distance de ML Hamming, les preuves ont non seulement été trouvées pour soutenir un type activement équilibré de régime de ML computationnel qui peut sous-tendre toute procédure de ML. Une performance similaire a également été démontrée dans les circuits corticaux bien que, bien sûr, les réseaux de neurones artificiels représentent des simplifications très grossières des fonctions cérébrales 77 . Selon le compartiment, c'est-à-dire l'étiquette de données caractéristiques, le CNN juge différemment l'importance des étiquettes des trois évaluateurs humains lors de la formation. Pour les compartiments du vitré et de la rétine, g2 et g3 ont produit des étiquettes de manière relativement similaire, et g1 a produit des étiquettes de manière relativement différente. Pendant la formation, le CNN semble accorder plus d'attention aux étiquettes des deux correcteurs qui ont étiqueté de la même manière puisque la distance de Hamming moyenne sur l'ensemble de test de 200 B-scans est plus proche de g2 et g3 que de g1 (Fig. 1). En revanche, pour les compartiments de la choroïde et de la sclérotique, g1 et g2 ont été marqués de manière relativement similaire et g2 et g3 ont été marqués de manière relativement similaire. Mais les étiquettes de g1 et g3 étaient relativement différentes. Dans ce cas, le CNN a appris à faire des prédictions plus proches de g1 et g2 que de g3. Ce comportement peut être comparé à un changement de vitesse. Selon le compartiment, c'est-à-dire l'étiquette de données, le CNN applique une stratégie d'apprentissage différente par rapport aux données de vérité terrain. Cela démontre l'importance d'employer plusieurs évaluateurs indépendants pour la formation CNN. Bien qu'il s'agisse d'un phénomène bien connu et attendu en apprentissage automatique, il est néanmoins remarquable que cette circonstance soit devenue visuellement représentable avec ce travail et perceptible de cette manière.

T-REX, notre approche XAI proposée, peut être utile pour réduire les nombreuses possibilités de développement et d'amélioration des connaissances générées artificiellement, par exemple, pour sélectionner quel niveleur offre les meilleures opportunités de développement ML ou quelles manipulations intentionnelles induisent une détérioration des performances 73 . En particulier, notre analyse T-REX a montré qu'il est nécessaire d'étudier non seulement le comportement prédictif moyen du CNN, mais également de considérer les prédictions individuelles à un niveau de données plus profond (par exemple chaque B-scan unique) pour transformer l'apprentissage automatique en précieux apprentissage. Considérer uniquement la performance prédictive moyenne pourrait être trompeur puisqu'il serait possible pour un CNN de prédire certaines images comme le gradeur humain 1 et d'autres comme le gradeur humain 2 ou 3. L'analyse des performances prédictives d'un CNN sur des images individuelles permet de faire des déclarations plus précises sur les facteurs qui ont un impact sur le processus d'apprentissage à partir de données de vérité de terrain ambiguës. En général, cela permettra la manipulation ciblée du cadre ML à l'avenir pour documenter et afficher les performances afin de comparer objectivement les modèles ML et les données de vérité terrain les uns par rapport aux autres et ainsi améliorer et accélérer le développement. Si l'on comprend mieux le fonctionnement de la machine, alors il sera également possible d'élaborer un ensemble de prémisses correctes pour guider les réseaux de neurones profonds dans leur apprentissage et pour faciliter la robustesse et la généralisation.

Afin de pouvoir comparer les modèles ML de différents groupes de recherche, l'idéal serait qu'ils rendent non seulement leur code mais également leurs données accessibles au public. Le partage des données est généralement limité en raison de la confidentialité des données de santé ou des données sensibles à la propriété commerciale ou intellectuelle. Par conséquent, des « données noires ML » existent à côté des boîtes noires ML. T-REX serait ici une option intéressante pour générer des indices indirects sur les caractéristiques de ces données restreintes utilisées afin que des tiers puissent mieux comprendre et vérifier les allégations formulées.

Par rapport à d'autres rapports utilisant des CNN, une limite de cette étude pourrait être le nombre relativement faible de données de vérité terrain annotées. Cependant, la distance de Hamming moyenne entre les niveleurs humains et le CNN était de 0,0175, ce qui correspond à 1,75 % des pixels étiquetés différemment par les niveleurs humains et le CNN, respectivement. Cette haute performance prédictive du CNN a été confirmée lors de la formation sur le plus petit ensemble de données de vérité au sol de 800 B-Scans, qui a donné des résultats similaires.Cela indique que la taille de la vérité terrain de 900 B-scans était suffisante pour soutenir les affirmations proposées dans cette étude. Cependant, on peut supposer qu'un nombre encore plus élevé de données de vérité terrain pourrait encore améliorer les résultats. Néanmoins, l'annotation des données de vérité terrain par les humains est un processus très long et la configuration de l'étude actuelle semble être un compromis acceptable entre l'effort humain et les performances prédictives de CNN, d'autant plus que le développement d'algorithmes ML vise souvent à réduire le charge de travail.

La qualité de l'image pourrait également avoir un impact sur les résultats, en particulier dans les yeux intensément pigmentés en raison de la perte de signal. De plus, il existe d'autres systèmes de scores possibles que la distance de Hamming et la distance de Hamming ne tient pas compte de la taille des compartiments. Dans certaines situations, par exemple la myopie, la choroïde peut être beaucoup plus fine que la rétine, ce qui pourrait éventuellement conduire à une plus grande différence, mais ce n'était pas le cadre de cette étude.

Il convient de noter que les éléments individuels utilisés dans cette étude, à savoir U-Net, distance de Hamming, MDS et tracés de carte thermique, pourraient ne pas être considérés comme une nouveauté méthodologique en eux-mêmes. Cependant, l'originalité scientifique de notre travail peut être considérée comme une combinaison unique de composants préexistants 78 ou comme une permutation d'informations nouvelles et anciennes 79 : T-REX et ses découvertes scientifiques associées dans cette étude fournissent des études ultérieures avec une technique distinctive et une combinaison de connaissances non disponibles dans les rapports précédents. En bref, la conceptualisation appropriée des éléments ML mentionnés dans le cadre proposé a amélioré la compréhension de l'interface entre l'informatique automatique et les sciences de la vie et représente donc néanmoins un degré spécifique d'originalité.

Surtout et malgré toutes les limites, en médecine, les médecins n'utiliseront un système d'IA pour le diagnostic et le suivi des maladies que s'ils peuvent comprendre et appréhender le traitement interne de l'IA. Plus important encore, les médecins ne prendront une décision clinique sur la base d'une recommandation d'un tel système d'IA que s'ils peuvent s'identifier pleinement à l'IA. Un sous-ensemble de méthodes XAI vise à révéler des informations post hoc sur « pourquoi » une machine a pris une certaine décision. Alors que des approches post hoc bien connues telles que LRP ou GradCAM visualisent les régions pertinentes dans les données d'entrée, T-REX, notre méthode XAI proposée, a visualisé et évalué les similitudes entre les prédictions de CNN et les étiquettes de différents humains dont le CNN a appris. Par conséquent, cette étude contribue à une meilleure explicabilité dans l'application de l'IA, de sorte qu'un modèle DL résultant peut être mieux apprécié. T-REX peut fournir un outil d'évaluation et de recalibrage rigoureux pour incorporer de nouvelles normes DL. Dans un sens plus général, cela peut augmenter la qualité des explications basées sur les systèmes DL, ce qui augmente la causalité 55 . Cela peut à son tour favoriser la sécurité des médecins et des patients. En conséquence, l'approche XAI post hoc proposée T-REX devrait permettre aux scientifiques des données de modéliser des systèmes DL plus transparents. En retour, cela conduit à de nouvelles informations sur les modèles de DL formés par les médecins, qui utilisent la DL pour les décisions cliniques fondées sur les données.

La méthode proposée T-REX ne se limite pas à la segmentation sémantique d'images en ophtalmologie. En fait, il peut être appliqué pour améliorer la compréhension de tout algorithme d'apprentissage automatique qui apprend à partir de données de vérité terrain ambiguës. Par exemple, T-REX pourrait être utilisé dans l'application de la découverte des biais des modèles de prédiction ML en histopathologie numérique non seulement en ce qui concerne les biais des ensembles de données, mais également en ce qui concerne les opinions différentes des experts étiquetant les images histopathologiques 80 . Dans les applications, où les modèles de décision ML supervisés sont formés pour détecter des maladies telles que Covid-19 (réf. 81) et les experts doivent encore explorer et s'entendre sur les spécificités de la maladie particulière, T-REX serait utile pour visualiser l'ambiguïté de la avis d'experts, c'est-à-dire les étiquettes. Par conséquent, T-REX peut être particulièrement important si l'ambiguïté est insoluble, ce qui signifie que les experts du domaine ne sont pas d'accord sur les véritables étiquettes, mais les différences ne peuvent pas être éliminées de manière directe. Dans de nombreuses applications médicales, les véritables étiquettes ne peuvent pas être vérifiées car l'application de procédures invasives aux patients est impossible. Par conséquent, des méthodes telles que T-REX, qui mettent en évidence les résultats de l'apprentissage du modèle à partir d'une vérité terrain ambiguë, aident à améliorer la compréhension de l'objectivité d'un modèle formé et peuvent conduire à une réduction du biais dans la vérité terrain.

Dans un contexte plus large, T-REX pourrait fournir des informations sur la façon dont les algorithmes d'IA prennent des décisions dans l'incertitude, un processus très familier aux humains mais jusqu'à présent moins compris dans le domaine de l'IA.


Références et liens

1. A. Yodh et B. Chance, "Spectroscopie et imagerie avec diffusion de lumière", Phys. Aujourd'hui 48:34-40 (1995). [CrossRef]

2. S. R. Arridge et J. C. Hebden, « Imagerie optique en médecine : II. Modélisation et reconstruction », Phys. Méd. Biol. 42:841-854 (1997). [CrossRef]

3. M. A. O'Leary, D. A. Boas, B. Chance et A. G. Yodh, « Images expérimentales de milieux troubles hétérogènes par tomographie de photons diffusant dans le domaine fréquentiel », Opt. Lett. 20:426-428 (1995). [CrossRef]

4. H. Jiang, K. D. Paulsen, U. L. Osterberg, B. W. Pogue et M. S. Patterson, « Reconstruction d'images optiques à l'aide de données du domaine fréquentiel : simulations et expériences », J. Opt. Soc. Un m. UNE 13:253-266 (1996). [CrossRef]

5. M. V. Klibanov, T. R. Lucas et R. M. Frank, "Un algorithme d'imagerie rapide et précis en tomographie optique/diffusion", Inverse Probl. 13:1341-1361 (1997). [CrossRef]

6. S. R. Arridge, « Problèmes directs et inverses en imagerie infrarouge résolue en temps », Actes SPIE IS11 :35–64 (1993).

7. A.C. Kak et M. Slaney, Principes de l'imagerie tomographique informatisée (IEEE Press, New York, 1988).

8. D. A. Boas, « Une limitation fondamentale des algorithmes linéarisés pour la tomographie optique diffuse », Opt. Express 1:404-413 (1997). [CrossRef]

9. X. D. Li, T. Durduran, A. G. Yodh, B. Chance et D. N. Pattanayak, « Tomographie par diffraction pour l'imagerie biochimique avec des ondes de densité de photons diffuses », Opt. Lett. 22:573-575 (1997). [CrossRef]

10. X. D. Li, T. Durduran, A. G. Yodh, B. Chance et D. N. Pattanayak, « Tomographie par diffraction pour l'imagerie biomédicale avec des ondes de densité de photons diffuses : errata », Opt. Lett. 22:1198 (1997). [CrossRef]

11. C. L. Matson, N. Clark, l. McMackin et J. S. Fender, « Localisation tridimensionnelle des tumeurs dans les tissus épais à l'aide d'ondes de densité photonique diffuses », Appl. Opter. 36:214-220 (1997). [CrossRef]

12. C. L. Matson, « Un modèle tomographique de diffraction du problème avancé utilisant des ondes de densité de photons diffuses », Opt. Express 1:6-11 (1997). [CrossRef]

13. D. Boas, Sondes à photons diffus des propriétés structurelles et dynamiques des milieux troubles : théorie et applications biomédicales, un doctorat Thèse en physique, Université de Pennsylvanie, 1996.

14. D. A. Boas, M. A. O'Leary, B. Chance et A. G. Yodh, « Diffusion des ondes de densité de photons diffuses par inhomogénéités sphériques dans les milieux troubles : solution analytique et applications », Proc. Natl. Acad. Sci. Etats-Unis 91:4887-4891 (1994). [CrossRef]

15. P. N. den Outer, T. M. Nieuwenhuizen et A. Lagendijk, « Location of objects in multiple-scattering media », J. Opt. Soc. Un m. UNE 10:1209-1218 (1993). [CrossRef]

16. S. Feng, F. Zeng et B. Chance, « Migration de photons en présence d'un seul défaut : une analyse de perturbation », Appl. Opter. 34:3826-3837 (1995). [CrossRef]

17. R. C. Haskell, L. O. Svaasand, T. Tsay, T. Feng, M. S. McAdams et B. J. Tromberg, « Conditions aux limites pour l'équation de diffusion dans le transfert radiatif », J.Opt.Soc.of Am.A 11:2727-2741 (1994). [CrossRef]

18. T. J. Farrell, M. S. Patterson et B. Wilson, « Un modèle de théorie de la diffusion de la réflectance diffuse à l'état stable résolue dans l'espace pour la détermination non invasive des propriétés optiques des tissus in vivo », Physique médicale 19:879-888 (1992). [CrossRef]

Les références

  • Vu par:
  • Ordre des articles
  • |
  • Année
  • |
  • Auteur
  • |
  • Publication
  1. A. Yodh et B. Chance, "Spectroscopie et imagerie avec diffusion de lumière", Phys. Aujourd'hui 48:34-40 (1995).
    [Référence croisée]
  2. S. R. Arridge et J. C. Hebden, « Imagerie optique en médecine : II. Modélisation et reconstruction », Phys. Méd. Biol. 42:841-854 (1997).
    [Référence croisée]
  3. M. A. O'Leary, D. A. Boas, B. Chance et A. G. Yodh, « Images expérimentales de milieux troubles hétérogènes par tomographie de photons diffusant dans le domaine fréquentiel », Opt. Lett. 20:426-428 (1995).
    [Référence croisée]
  4. H. Jiang, K. D. Paulsen, U. L. Osterberg, B. W. Pogue et M. S. Patterson, « Reconstruction d'images optiques à l'aide de données du domaine fréquentiel : simulations et expériences », J. Opt. Soc. Un m. A 13:253-266 (1996).
    [Référence croisée]
  5. M. V. Klibanov, T. R. Lucas et R. M. Frank, "Un algorithme d'imagerie rapide et précis en tomographie optique/diffusion", Inverse Probl. 13:1341-1361 (1997).
    [Référence croisée]
  6. S. R. Arridge, « Problèmes directs et inverses dans l'imagerie infrarouge résolue dans le temps », Actes SPIE IS11 : 35-64 (1993).
  7. A. C. Kak et M. Slaney, Principes de l'imagerie tomographique informatisée (IEEE Press, New York, 1988).
  8. D. A. Boas, « Une limitation fondamentale des algorithmes linéarisés pour la tomographie optique diffuse », Opt. Express 1:404-413 (1997).
    [Référence croisée]
  9. X. D. Li, T. Durduran, A. G. Yodh, B. Chance et D. N. Pattanayak, « Tomographie par diffraction pour l'imagerie biochimique avec des ondes de densité de photons diffuses », Opt. Lett. 22:573-575 (1997).
    [Référence croisée]
  10. X. D. Li, T. Durduran, A. G. Yodh, B. Chance et D. N. Pattanayak, « Tomographie par diffraction pour l'imagerie biomédicale avec des ondes de densité de photons diffuses : errata », Opt. Lett. 22:1198 (1997).
    [Référence croisée]
  11. C. L. Matson, N. Clark, l. McMackin et J. S. Fender, « Localisation tridimensionnelle des tumeurs dans les tissus épais à l'aide d'ondes de densité photonique diffuses », Appl. Opter. 36:214-220 (1997).
    [Référence croisée]
  12. C. L. Matson, « Un modèle tomographique de diffraction du problème avancé utilisant des ondes de densité de photons diffuses », Opt. Exprimez 1:6-11 (1997).
    [Référence croisée]
  13. D. Boas, Sondes à photons diffus des propriétés structurelles et dynamiques des milieux turbides : théorie et applications biomédicales, Ph.D. Thèse en physique, Université de Pennsylvanie, 1996.
  14. D. A. Boas, M. A. O'Leary, B. Chance et A. G. Yodh, « Diffusion des ondes de densité de photons diffuses par inhomogénéités sphériques dans les milieux troubles : solution analytique et applications », Proc. Natl. Acad. Sci. États-Unis 91 : 4887-4891 (1994).
    [Référence croisée]
  15. P. N. den Outer, T. M. Nieuwenhuizen et A. Lagendijk, « Location of objects in multiple-scattering media », J. Opt. Soc. Un m. A 10:1209-1218 (1993).
    [Référence croisée]
  16. S. Feng, F. Zeng et B. Chance, « Migration de photons en présence d'un seul défaut : une analyse de perturbation », Appl. Opter. 34:3826-3837 (1995).
    [Référence croisée]
  17. RC Haskell, LO Svaasand, T. Tsay, T. Feng, MS McAdams et BJ Tromberg, « Conditions aux limites pour l'équation de diffusion dans le transfert radiatif », J.Opt.Soc.of Am.A 11 : 2727-2741 (1994 ).
    [Référence croisée]
  18. T. J. Farrell, M. S. Patterson et B. Wilson, « Un modèle de théorie de la diffusion de réflectance diffuse à l'état stable et résolue dans l'espace pour la détermination non invasive des propriétés optiques des tissus in vivo », Medical Physics 19 : 879-888 (1992).
    [Référence croisée]

1997 (7)

S. R. Arridge et J. C. Hebden, « Imagerie optique en médecine : II. Modélisation et reconstruction », Phys. Méd. Biol. 42:841-854 (1997).
[Référence croisée]

D. A. Boas, « Une limitation fondamentale des algorithmes linéarisés pour la tomographie optique diffuse », Opt. Express 1:404-413 (1997).
[Référence croisée]

X. D. Li, T. Durduran, A. G. Yodh, B. Chance et D. N. Pattanayak, « Tomographie par diffraction pour l'imagerie biochimique avec des ondes de densité de photons diffuses », Opt. Lett. 22:573-575 (1997).
[Référence croisée]

X. D. Li, T. Durduran, A. G. Yodh, B. Chance et D. N. Pattanayak, « Tomographie par diffraction pour l'imagerie biomédicale avec des ondes de densité de photons diffuses : errata », Opt. Lett. 22:1198 (1997).
[Référence croisée]

C. L. Matson, N. Clark, l. McMackin et J. S. Fender, « Localisation tridimensionnelle des tumeurs dans les tissus épais à l'aide d'ondes de densité photonique diffuses », Appl. Opter. 36:214-220 (1997).
[Référence croisée]

C. L. Matson, « Un modèle tomographique de diffraction du problème avancé utilisant des ondes de densité de photons diffuses », Opt. Exprimez 1:6-11 (1997).
[Référence croisée]

M. V. Klibanov, T. R. Lucas et R. M. Frank, "Un algorithme d'imagerie rapide et précis en tomographie optique/diffusion", Inverse Probl. 13:1341-1361 (1997).
[Référence croisée]

1996 (1)

H. Jiang, K. D. Paulsen, U. L. Osterberg, B. W. Pogue et M. S. Patterson, « Reconstruction d'images optiques à l'aide de données du domaine fréquentiel : simulations et expériences », J. Opt. Soc. Un m. A 13:253-266 (1996).
[Référence croisée]

1995 (3)

A. Yodh et B. Chance, "Spectroscopie et imagerie avec diffusion de lumière", Phys. Aujourd'hui 48:34-40 (1995).
[Référence croisée]

M. A. O'Leary, D. A. Boas, B. Chance et A. G. Yodh, « Images expérimentales de milieux troubles hétérogènes par tomographie de photons diffusant dans le domaine fréquentiel », Opt. Lett. 20:426-428 (1995).
[Référence croisée]

S. Feng, F. Zeng et B. Chance, « Migration de photons en présence d'un seul défaut : une analyse de perturbation », Appl. Opter. 34:3826-3837 (1995).
[Référence croisée]

1994 (2)

RC Haskell, LO Svaasand, T. Tsay, T. Feng, MS McAdams et BJ Tromberg, « Conditions aux limites pour l'équation de diffusion dans le transfert radiatif », J.Opt.Soc.of Am.A 11 : 2727-2741 (1994 ).
[Référence croisée]

D. A. Boas, M. A. O'Leary, B. Chance et A. G. Yodh, « Diffusion des ondes de densité de photons diffuses par inhomogénéités sphériques dans les milieux troubles : solution analytique et applications », Proc. Natl. Acad. Sci. États-Unis 91 : 4887–4891 (1994).
[Référence croisée]

1993 (2)

P. N. den Outer, T. M. Nieuwenhuizen et A. Lagendijk, « Location of objects in multiple-scattering media », J. Opt. Soc. Un m. A 10:1209-1218 (1993).
[Référence croisée]

S. R. Arridge, « Problèmes directs et inverses dans l'imagerie infrarouge résolue dans le temps », Actes SPIE IS11 : 35-64 (1993).

1992 (1)

T. J. Farrell, M. S. Patterson et B. Wilson, « Un modèle de théorie de la diffusion de réflectance diffuse à l'état stable et résolue dans l'espace pour la détermination non invasive des propriétés optiques des tissus in vivo », Medical Physics 19 : 879-888 (1992).
[Référence croisée]

Arridge, S.R.

S. R. Arridge et J. C. Hebden, « Imagerie optique en médecine : II. Modélisation et reconstruction », Phys. Méd. Biol. 42:841-854 (1997).
[Référence croisée]

S. R. Arridge, « Problèmes directs et inverses dans l'imagerie infrarouge résolue dans le temps », Actes SPIE IS11 : 35-64 (1993).

Boas, D.

D. Boas, Sondes à photons diffus des propriétés structurelles et dynamiques des milieux turbides : théorie et applications biomédicales, Ph.D. Thèse en physique, Université de Pennsylvanie, 1996.

Boas, D.A.

D. A. Boas, « Une limitation fondamentale des algorithmes linéarisés pour la tomographie optique diffuse », Opt. Express 1:404-413 (1997).
[Référence croisée]

M. A. O'Leary, D. A. Boas, B. Chance et A. G. Yodh, « Images expérimentales de milieux troubles hétérogènes par tomographie de photons diffusant dans le domaine fréquentiel », Opt. Lett. 20:426-428 (1995).
[Référence croisée]

D. A. Boas, M. A. O'Leary, B. Chance et A. G. Yodh, « Diffusion des ondes de densité de photons diffuses par inhomogénéités sphériques dans les milieux troubles : solution analytique et applications », Proc. Natl. Acad. Sci. États-Unis 91 : 4887-4891 (1994).
[Référence croisée]

Chance, B.

X. D. Li, T. Durduran, A. G. Yodh, B. Chance et D. N. Pattanayak, « Tomographie par diffraction pour l'imagerie biochimique avec des ondes de densité de photons diffuses », Opt. Lett. 22:573-575 (1997).
[Référence croisée]

X. D. Li, T. Durduran, A. G. Yodh, B. Chance et D. N. Pattanayak, « Tomographie par diffraction pour l'imagerie biomédicale avec des ondes de densité de photons diffuses : errata », Opt. Lett. 22:1198 (1997).
[Référence croisée]

M. A. O'Leary, D. A. Boas, B. Chance et A. G. Yodh, « Images expérimentales de milieux troubles hétérogènes par tomographie de photons diffusant dans le domaine fréquentiel », Opt. Lett. 20:426-428 (1995).
[Référence croisée]

A. Yodh et B. Chance, "Spectroscopie et imagerie avec diffusion de lumière", Phys. Aujourd'hui 48:34-40 (1995).
[Référence croisée]

S. Feng, F. Zeng et B. Chance, « Migration de photons en présence d'un seul défaut : une analyse de perturbation », Appl. Opter. 34:3826-3837 (1995).
[Référence croisée]

D. A. Boas, M. A. O'Leary, B. Chance et A. G.Yodh, « Diffusion des ondes de densité photonique diffuses par inhomogénéités sphériques dans les milieux troubles : solution analytique et applications », Proc. Natl. Acad. Sci. États-Unis 91 : 4887-4891 (1994).
[Référence croisée]

Clark, N.

C. L. Matson, N. Clark, l. McMackin et J. S. Fender, « Localisation tridimensionnelle des tumeurs dans les tissus épais à l'aide d'ondes de densité photonique diffuses », Appl. Opter. 36:214-220 (1997).
[Référence croisée]

Den Outer, P.N.

P. N. den Outer, T. M. Nieuwenhuizen et A. Lagendijk, « Location of objects in multiple-scattering media », J. Opt. Soc. Un m. A 10:1209-1218 (1993).
[Référence croisée]

Durduran, T.

X. D. Li, T. Durduran, A. G. Yodh, B. Chance et D. N. Pattanayak, « Tomographie par diffraction pour l'imagerie biomédicale avec des ondes de densité de photons diffuses : errata », Opt. Lett. 22:1198 (1997).
[Référence croisée]

X. D. Li, T. Durduran, A. G. Yodh, B. Chance et D. N. Pattanayak, « Tomographie par diffraction pour l'imagerie biochimique avec des ondes de densité de photons diffuses », Opt. Lett. 22:573-575 (1997).
[Référence croisée]

Farrell, T.J.

T. J. Farrell, M. S. Patterson et B. Wilson, « Un modèle de théorie de la diffusion de réflectance diffuse à l'état stable et résolue dans l'espace pour la détermination non invasive des propriétés optiques des tissus in vivo », Medical Physics 19 : 879-888 (1992).
[Référence croisée]

Fender, J. S.

C. L. Matson, N. Clark, l. McMackin et J. S. Fender, « Localisation tridimensionnelle des tumeurs dans les tissus épais à l'aide d'ondes de densité photonique diffuses », Appl. Opter. 36:214-220 (1997).
[Référence croisée]

Feng, S.

S. Feng, F. Zeng et B. Chance, « Migration de photons en présence d'un seul défaut : une analyse de perturbation », Appl. Opter. 34:3826-3837 (1995).
[Référence croisée]

Feng, T.

RC Haskell, LO Svaasand, T. Tsay, T. Feng, MS McAdams et BJ Tromberg, « Conditions aux limites pour l'équation de diffusion dans le transfert radiatif », J.Opt.Soc.of Am.A 11 : 2727-2741 (1994 ).
[Référence croisée]

Frank, R.M.

M. V. Klibanov, T. R. Lucas et R. M. Frank, "Un algorithme d'imagerie rapide et précis en tomographie optique/diffusion", Inverse Probl. 13:1341-1361 (1997).
[Référence croisée]

Haskell, R.C.

RC Haskell, LO Svaasand, T. Tsay, T. Feng, MS McAdams et BJ Tromberg, « Conditions aux limites pour l'équation de diffusion dans le transfert radiatif », J.Opt.Soc.of Am.A 11 : 2727-2741 (1994 ).
[Référence croisée]

Hebden, J.C.

S. R. Arridge et J. C. Hebden, « Imagerie optique en médecine : II. Modélisation et reconstruction », Phys. Méd. Biol. 42:841-854 (1997).
[Référence croisée]

Jiang, H.

H. Jiang, K. D. Paulsen, U. L. Osterberg, B. W. Pogue et M. S. Patterson, « Reconstruction d'images optiques à l'aide de données du domaine fréquentiel : simulations et expériences », J. Opt. Soc. Un m. A 13:253-266 (1996).
[Référence croisée]

Kak, A.C.

A. C. Kak et M. Slaney, Principes de l'imagerie tomographique informatisée (IEEE Press, New York, 1988).

Klibanov, M.V.

M. V. Klibanov, T. R. Lucas et R. M. Frank, "Un algorithme d'imagerie rapide et précis en tomographie optique/diffusion", Inverse Probl. 13:1341-1361 (1997).
[Référence croisée]

Lagendijk, A.

P. N. den Outer, T. M. Nieuwenhuizen et A. Lagendijk, « Location of objects in multiple-scattering media », J. Opt. Soc. Un m. A 10:1209-1218 (1993).
[Référence croisée]

Li, X.D.

X. D. Li, T. Durduran, A. G. Yodh, B. Chance et D. N. Pattanayak, « Tomographie par diffraction pour l'imagerie biomédicale avec des ondes de densité de photons diffuses : errata », Opt. Lett. 22:1198 (1997).
[Référence croisée]

X. D. Li, T. Durduran, A. G. Yodh, B. Chance et D. N. Pattanayak, « Tomographie par diffraction pour l'imagerie biochimique avec des ondes de densité de photons diffuses », Opt. Lett. 22:573-575 (1997).
[Référence croisée]

Lucas, T.R.

M. V. Klibanov, T. R. Lucas et R. M. Frank, "Un algorithme d'imagerie rapide et précis en tomographie optique/diffusion", Inverse Probl. 13:1341-1361 (1997).
[Référence croisée]

Matson, C.L.

C. L. Matson, N. Clark, l. McMackin et J. S. Fender, « Localisation tridimensionnelle des tumeurs dans les tissus épais à l'aide d'ondes de densité photonique diffuses », Appl. Opter. 36:214-220 (1997).
[Référence croisée]

C. L. Matson, « Un modèle tomographique de diffraction du problème avancé utilisant des ondes de densité de photons diffuses », Opt. Exprimez 1:6-11 (1997).
[Référence croisée]

McAdams, M.S.

RC Haskell, LO Svaasand, T. Tsay, T. Feng, MS McAdams et BJ Tromberg, « Conditions aux limites pour l'équation de diffusion dans le transfert radiatif », J.Opt.Soc.of Am.A 11 : 2727-2741 (1994 ).
[Référence croisée]

McMackin, l.

C. L. Matson, N. Clark, l. McMackin et J. S. Fender, « Localisation tridimensionnelle des tumeurs dans les tissus épais à l'aide d'ondes de densité photonique diffuses », Appl. Opter. 36:214-220 (1997).
[Référence croisée]

Nieuwenhuizen, T.M.

P. N. den Outer, T. M. Nieuwenhuizen et A. Lagendijk, « Location of objects in multiple-scattering media », J. Opt. Soc. Un m. A 10:1209-1218 (1993).
[Référence croisée]

O'Leary, M.A.

M. A. O'Leary, D. A. Boas, B. Chance et A. G. Yodh, « Images expérimentales de milieux troubles hétérogènes par tomographie de photons diffusant dans le domaine fréquentiel », Opt. Lett. 20:426-428 (1995).
[Référence croisée]

D. A. Boas, M. A. O'Leary, B. Chance et A. G. Yodh, « Diffusion des ondes de densité de photons diffuses par inhomogénéités sphériques dans les milieux troubles : solution analytique et applications », Proc. Natl. Acad. Sci. États-Unis 91 : 4887-4891 (1994).
[Référence croisée]

Osterberg, U.L.

H. Jiang, K. D. Paulsen, U. L. Osterberg, B. W. Pogue et M. S. Patterson, « Reconstruction d'images optiques à l'aide de données du domaine fréquentiel : simulations et expériences », J. Opt. Soc. Un m. A 13:253-266 (1996).
[Référence croisée]

Pattanayak, D.N.

X. D. Li, T. Durduran, A. G. Yodh, B. Chance et D. N. Pattanayak, « Tomographie par diffraction pour l'imagerie biomédicale avec des ondes de densité de photons diffuses : errata », Opt. Lett. 22:1198 (1997).
[Référence croisée]

X. D. Li, T. Durduran, A. G. Yodh, B. Chance et D. N. Pattanayak, « Tomographie par diffraction pour l'imagerie biochimique avec des ondes de densité de photons diffuses », Opt. Lett. 22:573-575 (1997).
[Référence croisée]

Patterson, M.S.

H. Jiang, K. D. Paulsen, U. L. Osterberg, B. W. Pogue et M. S. Patterson, « Reconstruction d'images optiques à l'aide de données du domaine fréquentiel : simulations et expériences », J. Opt. Soc. Un m. A 13:253-266 (1996).
[Référence croisée]

T. J. Farrell, M. S. Patterson et B. Wilson, « Un modèle de théorie de la diffusion de réflectance diffuse à l'état stable et résolue dans l'espace pour la détermination non invasive des propriétés optiques des tissus in vivo », Medical Physics 19 : 879-888 (1992).
[Référence croisée]

Paulsen, K.D.

H. Jiang, K. D. Paulsen, U. L. Osterberg, B. W. Pogue et M. S. Patterson, « Reconstruction d'images optiques à l'aide de données du domaine fréquentiel : simulations et expériences », J. Opt. Soc. Un m. A 13:253-266 (1996).
[Référence croisée]

Pogue, B.W.

H. Jiang, K. D. Paulsen, U. L. Osterberg, B. W. Pogue et M. S. Patterson, « Reconstruction d'images optiques à l'aide de données du domaine fréquentiel : simulations et expériences », J. Opt. Soc. Un m. A 13:253-266 (1996).
[Référence croisée]

Slaney, M.

A. C. Kak et M. Slaney, Principes de l'imagerie tomographique informatisée (IEEE Press, New York, 1988).

Svaasand, L.O.

RC Haskell, LO Svaasand, T. Tsay, T. Feng, MS McAdams et BJ Tromberg, « Conditions aux limites pour l'équation de diffusion dans le transfert radiatif », J.Opt.Soc.of Am.A 11 : 2727-2741 (1994 ).
[Référence croisée]

Tromberg, B.J.

RC Haskell, LO Svaasand, T. Tsay, T. Feng, MS McAdams et BJ Tromberg, « Conditions aux limites pour l'équation de diffusion dans le transfert radiatif », J.Opt.Soc.of Am.A 11 : 2727-2741 (1994 ).
[Référence croisée]

Tsay, T.

RC Haskell, LO Svaasand, T. Tsay, T. Feng, MS McAdams et BJ Tromberg, « Conditions aux limites pour l'équation de diffusion dans le transfert radiatif », J.Opt.Soc.of Am.A 11 : 2727-2741 (1994 ).
[Référence croisée]

Wilson, B.

T. J. Farrell, M. S. Patterson et B. Wilson, « Un modèle de théorie de la diffusion de réflectance diffuse à l'état stable et résolue dans l'espace pour la détermination non invasive des propriétés optiques des tissus in vivo », Medical Physics 19 : 879-888 (1992).
[Référence croisée]

Yodh, A.

A. Yodh et B. Chance, "Spectroscopie et imagerie avec diffusion de lumière", Phys. Aujourd'hui 48:34-40 (1995).
[Référence croisée]

Yodh, A.G.

X. D. Li, T. Durduran, A. G. Yodh, B. Chance et D. N. Pattanayak, « Tomographie par diffraction pour l'imagerie biomédicale avec des ondes de densité de photons diffuses : errata », Opt. Lett. 22:1198 (1997).
[Référence croisée]

X. D. Li, T. Durduran, A. G. Yodh, B. Chance et D. N. Pattanayak, « Tomographie par diffraction pour l'imagerie biochimique avec des ondes de densité de photons diffuses », Opt. Lett. 22:573-575 (1997).
[Référence croisée]

M. A. O'Leary, D. A. Boas, B. Chance et A. G. Yodh, « Images expérimentales de milieux troubles hétérogènes par tomographie de photons diffusant dans le domaine fréquentiel », Opt. Lett. 20:426-428 (1995).
[Référence croisée]

D. A. Boas, M. A. O'Leary, B. Chance et A. G. Yodh, « Diffusion des ondes de densité de photons diffuses par inhomogénéités sphériques dans les milieux troubles : solution analytique et applications », Proc. Natl. Acad. Sci. États-Unis 91 : 4887-4891 (1994).
[Référence croisée]

Zeng, F.

S. Feng, F. Zeng et B. Chance, « Migration de photons en présence d'un seul défaut : une analyse de perturbation », Appl. Opter. 34:3826-3837 (1995).
[Référence croisée]

Appl. Opter. (2)

C. L. Matson, N. Clark, l. McMackin et J. S. Fender, « Localisation tridimensionnelle des tumeurs dans les tissus épais à l'aide d'ondes de densité photonique diffuses », Appl. Opter. 36:214-220 (1997).
[Référence croisée]

S. Feng, F. Zeng et B. Chance, « Migration de photons en présence d'un seul défaut : une analyse de perturbation », Appl. Opter. 34:3826-3837 (1995).
[Référence croisée]

Problème inverse (1)

M. V. Klibanov, T. R. Lucas et R. M. Frank, "Un algorithme d'imagerie rapide et précis en tomographie optique/diffusion", Inverse Probl. 13:1341-1361 (1997).
[Référence croisée]

J. Opt. Soc. Un m. Un (2)

H. Jiang, K. D. Paulsen, U. L. Osterberg, B. W. Pogue et M. S. Patterson, « Reconstruction d'images optiques à l'aide de données du domaine fréquentiel : simulations et expériences », J. Opt. Soc. Un m. A 13:253-266 (1996).
[Référence croisée]

P. N. den Outer, T. M. Nieuwenhuizen et A. Lagendijk, « Location of objects in multiple-scattering media », J. Opt. Soc. Un m. A 10:1209-1218 (1993).
[Référence croisée]

J.Opt.Soc.de Am.A (1)

RC Haskell, LO Svaasand, T. Tsay, T. Feng, MS McAdams et BJ Tromberg, « Conditions aux limites pour l'équation de diffusion dans le transfert radiatif », J.Opt.Soc.of Am.A 11 : 2727-2741 (1994 ).
[Référence croisée]

Physique Médicale (1)

T. J. Farrell, M. S. Patterson et B. Wilson, « Un modèle de théorie de la diffusion de réflectance diffuse à l'état stable et résolue dans l'espace pour la détermination non invasive des propriétés optiques des tissus in vivo », Medical Physics 19 : 879-888 (1992).
[Référence croisée]

Opter. Express (2)

C. L. Matson, « Un modèle tomographique de diffraction du problème avancé utilisant des ondes de densité de photons diffuses », Opt. Exprimez 1:6-11 (1997).
[Référence croisée]

D. A. Boas, « Une limitation fondamentale des algorithmes linéarisés pour la tomographie optique diffuse », Opt. Express 1:404-413 (1997).
[Référence croisée]

Opter. Lett. (3)

X. D. Li, T. Durduran, A. G. Yodh, B. Chance et D. N. Pattanayak, « Tomographie par diffraction pour l'imagerie biochimique avec des ondes de densité de photons diffuses », Opt. Lett. 22:573-575 (1997).
[Référence croisée]

X. D. Li, T. Durduran, A. G. Yodh, B. Chance et D. N. Pattanayak, « Tomographie par diffraction pour l'imagerie biomédicale avec des ondes de densité de photons diffuses : errata », Opt. Lett. 22:1198 (1997).
[Référence croisée]

M. A. O'Leary, D. A. Boas, B. Chance et A. G. Yodh, « Images expérimentales de milieux troubles hétérogènes par tomographie de photons diffusant dans le domaine fréquentiel », Opt. Lett. 20:426-428 (1995).
[Référence croisée]

Phys. Méd. Biol. (1)

S. R. Arridge et J. C. Hebden, « Imagerie optique en médecine : II. Modélisation et reconstruction », Phys. Méd. Biol. 42:841-854 (1997).
[Référence croisée]

Phys. Aujourd'hui (1)

A. Yodh et B. Chance, "Spectroscopie et imagerie avec diffusion de lumière", Phys. Aujourd'hui 48:34-40 (1995).
[Référence croisée]

Proc. Natl. Acad. Sci. États-Unis (1)

D. A. Boas, M. A. O'Leary, B. Chance et A. G. Yodh, « Diffusion des ondes de densité de photons diffuses par inhomogénéités sphériques dans les milieux troubles : solution analytique et applications », Proc. Natl. Acad. Sci. États-Unis 91 : 4887-4891 (1994).
[Référence croisée]

Actes SPIE (1)

S. R. Arridge, « Problèmes directs et inverses dans l'imagerie infrarouge résolue dans le temps », Actes SPIE IS11 : 35-64 (1993).

Autre (2)

A. C. Kak et M. Slaney, Principes de l'imagerie tomographique informatisée (IEEE Press, New York, 1988).

D. Boas, Sondes à photons diffus des propriétés structurelles et dynamiques des milieux turbides : théorie et applications biomédicales, Ph.D. Thèse en physique, Université de Pennsylvanie, 1996.

Cité par

OSA participe au service Cited-By Linking de Crossref. Citant des articles de revues de l'OSA et d'autres éditeurs participants sont répertoriés ici.


3

Profils MTF des graphiques représentés sur la figure 2, illustrant les informations contenues en fonction de la fréquence spatiale, avec LSF ayant la résolution la plus élevée, PSF ayant la plus élevée suivante et ESF ayant la plus faible. La résolution est toujours considérablement plus mauvaise à l'intérieur du milieu diffusant qu'au bord près d'une source ou d'un détecteur.

Application des tests de résolution dans le domaine de la tomographie diffuse

En imagerie par lumière diffuse, il est reconnu depuis longtemps que la lumière suit un chemin statistique dans lequel le chemin prédominant entre la source et le détecteur est une ligne entourée d'une distribution en forme de banane. 63 Cette diffusion des chemins de photons est induite par la diffusion multiple inhérente présente, et diminue en largeur dans un milieu avec une diffusion plus faible ou une absorption accrue. L'effet d'une absorption accrue est quelque peu contre-intuitif, mais conduit généralement à une perte de photons qui ont voyagé plus loin dans les tissus, ce qui rétrécit par la suite le chemin moyen de déplacement. Ces distributions ont été étudiées par de nombreux chercheurs, et spécifiquement quantifiées par des articles au début des années 1990. 30, 51, 52, 56, 64, 65 L'imagerie des bords ne s'est pas avérée très utile, car la large diffusion des photons limite vraiment la capacité de visualiser clairement les bords des objets, et la variation spatiale de la résolution complique finalement l'analyse .

En tomographie diffuse, il est plus facile de résoudre une hétérogénéité circulaire lisse intégrée dans un champ que des changements d'étape. 66 Ceci est dû au fait que les hétérogénéités apparaissent sous forme d'objets filtrés symétriquement gaussiens dans l'image. Presque tous les articles dans le domaine de l'imagerie optique diffuse se sont concentrés sur l'évaluation de la résolution en plaçant des objets ponctuels ou des objets linéaires sur le terrain pour évaluer la résolution spatiale. 4, 30, 64, 67, 68, 69, 70, 71, 72, 73 Cette orientation a émergé d'une limitation fondamentale dans le domaine de la tomographie diffuse résultant du fait que tous les algorithmes de reconstruction actuellement utilisés sont dérivés à un certain niveau de perturbations. théorie. Les méthodes de Born, Rytov et Newton pour minimiser une fonction objectif sont toutes basées sur la perturbation d'un champ initial pour trouver la solution. Cette approche est intrinsèquement optimisée pour l'imagerie d'objets ponctuels, et la nature mal posée du problème, combinée à une régularisation importante, conduit à une solution nettement plus fluide que le champ de test d'origine.

Une fois qu'un système ou un algorithme est établi dans sa capacité à récupérer des objets ponctuels, l'extension à plusieurs objets a été un thème commun, cependant, cette étape est à la fois importante et problématique. Le problème le plus important est la réponse non linéaire du champ mesuré à des inhomogénéités multiples ou étendues, nécessitant un nombre infini de configurations d'hétérogénéité pour analyser pleinement les performances du système.

Peut-être que la seule approche raisonnable pour caractériser la réponse du champ d'imagerie à de multiples hétérogénéités est de simuler les distributions attendues des valeurs possibles in vivo et utilisez-le comme étalonnage limité du système et de l'algorithme correspondant. Même avec ces mesures prises, il est essentiel d'évaluer ces distributions avec la gamme complète de tailles d'objets et de contrastes attendus in vivo, comme cela est discuté dans la Sec. 3 sur l'analyse des détails de contraste.

Analyse de la résolution d'imagerie diffuse de luminescence et de fluorescence

L'imagerie de la résolution spatiale minimale n'est raisonnable que lorsqu'un contraste effectivement infini est attendu. L'imagerie par fluorescence des protéines ou l'imagerie par bioluminescence sont deux des rares situations en imagerie optique in vivo où il peut être raisonnable de s'attendre à un contraste presque infini, lorsque les problèmes d'émission de fond peuvent être négligés ou corrigés.74, 75, 76, 77 Lorsque les cellules sont spécifiquement transfectées ou modifiées pour exprimer un signal optique, tel qu'un organe spécifique ou une tumeur, l'émission de fond dans les organes voisins doit être effectivement nulle. Dans l'imagerie des protéines fluorescentes vertes ou rouges (GFP ou RFP), le fond et la fuite de lumière d'excitation à travers les filtres fournissent le signal de fond le plus important, cependant, cela peut être considérablement réduit lorsque l'ajustement dépendant de la longueur d'onde ou la soustraction de fond basée sur la longueur d'onde est utilisé . En bioluminescence, peu d'arrière-plan réel est présent dans la plupart des cas, et l'arrière-plan est souvent simplement le bruit sombre de la caméra ou une fuite de lumière dans l'enceinte depuis la pièce. Ainsi, la résolution spatiale de l'imagerie par bioluminescence ou fluorescence des protéines in vivo peut être évaluée par la fonction d'étalement des points ou l'imagerie de la fonction d'étalement des lignes, mais peu d'études à ce sujet ont été rapportées. Un article complet sur cette question par Troy 77 a montré des fonctions d'étalement de points efficaces telles que mesurées dans les fantômes et in vivo, en utilisant un petit nombre de cellules pour évaluer le nombre minimum détectable de photons et de cellules. Cette analyse a illustré que la bioluminescence est une technique d'imagerie plus sensible dans la géométrie de rémission, par une marge considérable, en raison de la diminution de la sensibilité d'imagerie des protéines fluorescentes causée par l'autofluorescence de fond. Cependant, les rapports récents d'imagerie par fluorescence dans la géométrie de transmission seront probablement plus sensibles. Dans la plupart des applications de fluorescence ou de bioluminescence, la résolution réelle n'était pas le paramètre le plus important pour distinguer les deux systèmes, mais en fait la sensibilité. La résolution de la bioluminescence et de la fluorescence semblait être similaire, car le photon diffusé dans une fenêtre spectrale était effectivement équivalent. Cette étude et d'autres études similaires se concentrent sur le contraste minimum ou le signal détectable, car la question de la résolution n'est pas régie par les contraintes du système, mais plutôt par les contraintes physiques du transport de la lumière dans les tissus. Les limites de résolution dans ce régime ont moins à voir avec la conception du système qu'avec la profondeur de l'objet à résoudre dans le tissu. Alors que la résolution des objets à la surface d'un tissu peut, en principe, être aussi élevée que la limite de diffraction de la lumière (c. à la résolution d'imagerie réelle étant abaissée à généralement près de 1 à 2 m lors de l'imagerie à la surface du tissu. Encore une fois, la résolution se dégrade clairement de plusieurs ordres de grandeur en seulement quelques millimètres de profondeur dans le tissu, en raison de la présence écrasante de diffusion.


3. Méthodes d'apprentissage en profondeur pour la tomographie optique

Les réseaux de neurones profonds (DNN) ont été largement appliqués en vision par ordinateur, comme la classification d'images et le traitement du langage naturel. 21,37 En tant qu'architecture plus profonde du réseau de neurones et approche de l'apprentissage automatique, DNN peut être généralement considéré comme une méthode d'approximation de fonction en adaptant l'ensemble de données donné à une certaine formule avec une série de paramètres. En d'autres termes, il peut être considéré comme un modèle de mappage entre l'entrée et la sortie. En fait, la reconstruction de l'imagerie optique à travers un milieu aléatoire peut être traitée en deux étapes : premièrement, trouver le modèle de transmission entre l'objet (source) et l'observateur (détecteur), qui est généralement nommé comme le problème direct, deuxièmement, calculer le source désirée par mesure acquise de l'observateur (détecteur), qui est généralement nommé comme le problème inverse. Les problèmes directs sont classiquement obtenus mathématiquement selon la théorie de la transmission, tandis que les problèmes inverses sont généralement résolus par des approches de régularisation, telles que Tikhonov, ou des méthodes itératives, telles que la descente de gradient.

Inspirés du principe de formation pour apprendre un modèle à partir du jeu de données, les algorithmes de reconstruction avec apprentissage automatique ou apprentissage profond, ont attiré de plus en plus d'attention. Horisaki et al. a proposé une architecture d'apprentissage par régression vectorielle de support (SVR) pour reconstruire les objets du visage. 38 Les réseaux profonds entièrement connectés, en tant qu'architecture typique de l'apprentissage en profondeur, ont également été utilisés pour l'imagerie via un support aléatoire. 39 Li et al. et Sinha et al. ont présenté plusieurs recherches sur l'introduction de réseaux de neurones convolutifs profonds dans des problèmes inverses, respectivement. 40,41

L'architecture profonde précédemment proposée dans les travaux de Li comprenait des blocs résiduels descendants, des blocs résiduels ascendants, des blocs convolutifs et des blocs d'échantillonnage bilinéaires, dont les blocs résiduels sont illustrés sur la figure 1. La couche d'entrée a été conçue pour les images capturées par un dispositif à couplage de charge (CCD), et le détecteur d'un système sans lentille a été conçu pour valider l'algorithme proposé. Elle a été concaténée successivement par 1 couche de sous-échantillonnage bilinéaire, 1 bloc de convolution simple, 5 blocs résiduels de convolution avec sous-échantillonnage et 4 blocs résiduels de déconvolution avec sur-échantillonnage. Le réseau a été entraîné par un algorithme de rétropropagation avec l'erreur quadratique entre l'entrée et la sortie comme fonction de coût. 42

Fig. 1. La différence entre le bloc résiduel et le bloc densément connecté. (a) Architecture d'un bloc résiduel typique et (b) Architecture d'un bloc dense typique à 3 couches.

Des expériences ont été réalisées sur un système de propagation en espace libre constitué d'une source laser avec filtrage spatial et collimation, le modulateur spatial de phase de lumière (SLM) et le détecteur (CCD). La distance entre le CCD et le SLM varie en trois valeurs différentes. Le SLM a été modulé par des caractères sélectionnés au hasard dans la base de données de chiffres manuscrits MNIST 43, puis le CCD a capturé les lumières transmises par le SLM et les images floues ont été obtenues en tant qu'entrée de l'architecture DNN proposée. L'ensemble d'apprentissage se composait de 10 000 échantillons. L'ensemble de test comprenait 1000 chiffres à l'exclusion de l'échantillon utilisé pour former le réseau du MNIST, 15 caractères chinois, 26 lettres anglaises et 19 caractères arabes. L'erreur quadratique moyenne (MSE) de la vérité terrain et des résultats reconstruits a été utilisée comme mesure d'évaluation. La capacité de l'approche basée sur DNN, dans la reconstruction d'images à travers un système de propagation libre, a été illustrée par les résultats visibles. Le réseau bien formé fonctionnait mieux lorsque la distance entre le CCD et le SLM était plus proche.

Différent de l'architecture pour le système d'imagerie à propagation libre décrite ci-dessus, un soi-disant « IDiffNet » pour le problème inverse de l'imagerie à travers un milieu diffus a été proposé en 2018. 41 Utilisant un réseau convolutif densément connecté, le « IDiffNet » consistait en une couche convolutive dilatée avec pooling, 6 blocs de transition denses et sous-échantillonnés, un bloc dense, 6 blocs de transition denses et suréchantillonnage, un bloc de suréchantillonnage et une couche convolutive avec Rectified Linear Unit (ReLU).

La différence entre le bloc dense et le bloc résiduel mentionné précédemment peut être illustrée sur la figure 1 et formulée par 44

Davantage de connexions sautées ont également été utilisées dans « IDiffNet ». Une autre variante de "IDiffNet" était qu'il utilisait un coefficient de corrélation de Pearson négatif (NPCC) comme fonction de perte pour remplacer la stratégie MAE conventionnelle, car le NPCC fonctionnait mieux pour les objets spatialement épars et les conditions de forte diffusion. 45

Des expériences avec l'un des deux diffuseurs différents et des entrées d'entraînement, qui ont été extraites de l'une des trois bases de données (Faces-LFW, 46 ImageNet, 47 et MNIST 43 ) pour chaque fois, ont été menées pour valider la méthode proposée. La taille de la formation était de 10 000 à chaque fois. 450 échantillons, qui ont été collectés à la fois dans la même base de données avec l'ensemble de données d'apprentissage et dans d'autres bases de données, ont été utilisés pour les tests. "IDiffNet" avec MAE comme fonction de perte a été utilisé comme comparaison de la stratégie de fonction de perte NPCC. Les résultats des expériences ont indiqué que différentes sévérités de diffusion nécessitaient différents ensembles de données d'apprentissage. Dans des conditions de forte diffusion, l'entraînement avec un ensemble de données relativement contraint avec une forte parcimonie surpasserait cet entraînement avec des ensembles de données génériques. Le compromis était similaire dans le choix de la fonction de perte : le NPCC était plus bénéfique que le MAE lorsque la diffusion était forte et l'objet était clairsemé alors qu'il était légèrement pire lorsque l'ensemble de données d'apprentissage était collecté à partir d'une base de données générique.

Les travaux de Li, en réalité, ont indiqué la faisabilité et la capacité de l'approche basée sur l'apprentissage, en particulier l'approche basée sur l'apprentissage profond, dans la reconstruction de l'imagerie par le biais d'un support aléatoire. Étant donné que les problèmes avancés et les problèmes inverses des systèmes d'imagerie optique biomédicale sont divers et plus complexes que les systèmes susmentionnés, des études particulières pour les reconstructions qui sont basées sur des méthodes d'apprentissage et se concentrent sur différentes modalités, telles que DOT, FMT, BLT et PAT, ont été présentés récemment.

3.1. Méthodes basées sur des modèles pour les problèmes inverses

Le DOT est généralement utilisé pour étudier les paramètres d'absorption optique et de diffusion des tissus biologiques, indiquant les anomalies. Le modèle direct peut être généré de manière conventionnelle à partir de modèles de propagation de la lumière tels que l'équation de diffusion. 48 En fait, le modèle avancé de DOT avec FMT et d'autres modalités peut être écrit sous la forme

Ignorant les réflexions de la propagation de la lumière à travers le milieu, Kamilov et al. ont proposé un réseau de neurones artificiels multicouches 49 qui a utilisé la méthode de propagation de faisceau (BPM) pour modéliser le processus de diffusion dans des objets de phase tridimensionnels (3D). 50,51 Le milieu hétérogène ici a été divisé en plusieurs tranches le long de la direction de propagation. Comme le montre la figure 2, chaque tranche a été échantillonnée uniformément le long de la coordonnée (x, y) avec l'intervalle d'échantillonnage et représentée par chaque cercle sur chaque couche de la structure BPM. Les sommations de l'amplitude complexe des signaux convergeant vers chaque cercle ont été multipliées par ej 2 Δ nz δ z ∕ λ , avec z désignant l'intervalle d'échantillonnage le long de la direction de propagation, Δ n ( x , y , z ) désignant la perturbation de Indice 3D dans le milieu aux coordonnées ( x , y , z ) , et désignant la longueur d'onde, respectivement. La ligne droite entre chacun des deux cercles dénotait la multiplication de la sortie de l'unité correspondante et du noyau de diffraction de Fresnel discrétisé. 52 Le modèle BPM a été représenté par une architecture multicouche et entraîné par un algorithme de rétro-propagation d'erreurs.

Fig. 2. Schéma du réseau BPM. 49 Chaque cercle, qui peut être considéré comme le nœud d'une couche du réseau, désigne la modulation de phase à apprendre de l'apprentissage du réseau en minimisant l'erreur entre la sortie de la dernière couche et la mesure expérimentale. La propagation de la lumière incidente se fait selon la direction Z.

Des expériences d'imagerie de billes de polystyrène et de cellules HeLa et hTERT-RPE1 via un système holographique ont été implantées pour valider l'architecture proposée. Au cours des expériences, l'objet d'imagerie a été découpé en 420 couches le long de la distance de propagation de 30 m de longueur et l'intervalle d'échantillonnage transversal a été fixé à 72 nm. L'ensemble d'apprentissage se composait de 80 échantillons qui ont été collectés en éclairant l'échantillon à 80 angles distincts. Le réseau a été initialisé avec l'algorithme de reconstruction de rétroprojection filtré standard ou des constantes différentes de zéro pour étudier l'effet de l'initialisation. La reconstruction par transformée de Radon inverse a été utilisée à titre de comparaison. Les performances de l'algorithme de réseau BPM proposé et de l'algorithme comparé ont été évaluées visuellement.

En résumé, les travaux de Kamilov ont proposé un réseau BPM pour obtenir la distribution des coefficients optiques en milieu hétérogène en microscopie. La matrice de poids obtenue en entraînant le réseau avec plusieurs itérations était directement liée au résultat souhaité.

En DOT macroscopique, Yoo et al. ont proposé un réseau de neurones profonds à structure convolutive encodeur-décodeur pour inverser l'équation intégrale de Lippmann-Schwinger pour la migration des photons. 53,54

Le réseau se composait de trois parties : une couche entièrement connectée mappant les données mesurées au domaine voxel, une paire de couches CNN d'encodeur et une couche convolutive intermédiaire. La fonction tangente hyperbolique (tanh) a été utilisée comme fonctions d'activation pour les trois premières couches et ReLU a été adoptée pour la dernière couche convolutive.

Des expériences ont été réalisées via l'imagerie de fantômes en polypropylène et de souris porteuses de tumeurs, respectivement. L'ensemble d'apprentissage a été généré par un solveur FEM. 1 500 échantillons ont été obtenus en faisant varier la taille de l'anomalie hétérogène dans une plage de 2 à 13 mm de rayon et en modifiant les propriétés optiques du fond hétérogène dans la plage biologiquement pertinente. L'optimiseur MSE et Adam ont été utilisés comme fonction de perte et stratégie d'optimisation, respectivement. 1000 des 1500 échantillons ont été traités comme l'ensemble d'apprentissage et le reste a été traité comme l'ensemble de validation. La méthode itérative de Rytov a été développée pour être la méthode de comparaison. 55 Il convient de souligner que le réseau a été formé uniquement par les échantillons numériques simulés. Les résultats expérimentaux ont démontré visiblement que le réseau formé fonctionnait bien et pouvait reconstruire avec précision les anomalies sans procédure itérative ni approximation linéaire.

L'approche proposée dans les recherches de Yoo était en fait une architecture de bout en bout pour la tomographie optique. Le bloc CNN encodeur-décodeur a été conçu fortement selon l'équation intégrale de Lippmann-Schwinger, qui était différente des méthodes de bout en bout discutées plus tard.

Une autre approche d'apprentissage typique basée sur un modèle a été proposée pour résoudre le problème inverse à vue limite dans PAT. 56 Premièrement, certaines théories du PAT doivent être décrites. Le problème avancé de PAT peut être formulé comme

L'algorithme dit de « descente en gradient profond (DGD) » dans les travaux de Hauptmann s'est concentré sur l'apprentissage de la mise à jour de x k + 1 à chaque itération. Pour la ( k + 1 ) ième itération, le paramètre θ k d'une structure de réseau simple G θ k a été formé pour mettre à jour x k par

Deux stratégies ont été proposées pour entraîner l'architecture DGD : la première stratégie a été utilisée pour entraîner le réseau dans son ensemble avec l'itération maximale prédéfinie k max , tandis que la deuxième stratégie a été utilisée pour entraîner les paramètres du réseau à chaque itération de manière séquentielle. Il y avait un compromis entre les deux approches. La première approche offrait des résultats optimaux après k max itérations tout en souffrant d'évaluations répétées de la matrice du système et de l'adjoint. La seconde approche avait l'avantage de découpler le calcul du gradient et le processus d'apprentissage, fournissant une limite supérieure de l'erreur d'apprentissage. Cependant, la deuxième approche n'a pas pu obtenir une erreur d'entraînement minimale, ne parvenant pas à obtenir le résultat optimal. En variante, la seconde approche pourrait être utilisée comme initialisation pour la première approche.

Les échantillons simulés, en tant qu'ensemble d'apprentissage, ont été synthétisés en prétraitant les données x vrai extraites de la base de données publique d'images pulmonaires ELCAP 57 avec l'opération suivante :

De plus, l'algorithme DGD a été mis à jour en entraînant le réseau par transfert sur les reconstructions de variation totale (TV) faiblement régularisées à partir des données entièrement échantillonnées x TV et y .

La méthode itérative conventionnelle qui utilisait un U-net comme post-traitement, 58 reconstruction directe qui utilisait des données à vue limitée par la méthode TV, et la reconstruction directe qui utilisait des données entièrement échantillonnées par la méthode TV, ont été employées comme comparaison avec l'approche DGD et la DGD mise à jour approcher. Les résultats du DGD mis à jour étaient visiblement comparables aux résultats TV entièrement échantillonnés et surpassaient quantitativement les autres, selon des métriques d'évaluation qui comprenaient le rapport signal sur bruit (PSNR) et la similarité structurelle (SSIM).

3.2. Méthodes de post-traitement pour affiner les reconstructions avec le deep learning

En raison de la forte diffusion des photons dans le milieu trouble, les problèmes inverses de la tomographie optique sont mal conditionnés et souffrent d'une mauvaise pose. En conséquence, il est difficile d'obtenir des quantités et des emplacements précis des objets. Les reconstructions sont généralement défectueuses par des artefacts, ce qui conduit à des estimations de biais pour les vérités de terrain. Utilisant des réseaux de neurones profonds comme post-traitement, des méthodes en deux étapes sont proposées pour réduire les erreurs entre les résultats reconstruits et la vérité terrain. 59

Prenons le travail de Long, par exemple, une méthode en deux étapes employait généralement une approche itérative conventionnelle pour obtenir la reconstruction préliminaire (la distribution du fluorochrome en FMT) à partir des données mesurées et adoptait un CNN pour débloquer la reconstruction préliminaire. 59 Dans les recherches de Long pour la FMT, l'approche itérative conventionnelle utilisée dans la première étape était la régularisation de Tikhonov dépendante de la profondeur, qui avait été largement utilisée pour résoudre le problème inverse. 60 La deuxième étape consistait en trois couches convolutives 3D, une couche de mise en commun maximale, deux couches convolutives 3D et deux couches entièrement connectées, successivement.

Des expériences numériques ont été réalisées en employant une méthode de transmission directe basée sur Monte Carlo (MC) pour simuler la propagation des photons. 61 fantômes avec une cible et deux cibles ont été conçus pour enrichir les jeux de données. La première étape a été mise en œuvre avec la procédure régulière. Dans la deuxième étape, les données simulées et les données reconstruites ont été sélectionnées pour équilibrer la proportion d'échantillons négatifs et positifs. Le point clé de cette méthode en deux étapes est que le CNN a été utilisé pour savoir si un patch, comprenant plusieurs voxels obtenus en discrétisant l'ensemble du milieu en voxels et nœuds, se trouve à la limite de la cible de fluorescence à reconstruire.

Bien que les performances de cette méthode en deux étapes pour affiner les reconstructions FMT aient été vérifiées, la pénurie existe toujours : la méthode CNN proposée ne peut fonctionner que dans la situation idéale où les cibles de fluorescence à reconstruire sont homogènes. En d'autres termes, la méthode en deux étapes proposée dans la réf. 59 échouera si la concentration des cibles varie, ce qui est courant dans les expériences réelles. Néanmoins, cela fournit une nouvelle idée pour brouiller les résultats de la reconstruction avec CNN.

Comme mentionné précédemment dans la Sec. 3.1, des U-nets ont également été appliqués en post-traitement pour réduire l'erreur de reconstruction. En plus, Antholzer et al. appliqué un U-net typique pour mapper une reconstruction avec un artefact de sous-échantillonnage, qui a été généré par une méthode linéaire conventionnelle, à une image de reconstruction avec un artefact supprimé. 62 Le réseau proposé a été formé sur des échantillons simulés générés par des expériences numériques. L'avantage de cette méthode de post-traitement U-net est que le temps de calcul total des deux étapes n'est que de 20 ms, bien inférieur aux 25 s de la méthode TV classique.

3.3. Méthodes de bout en bout avec apprentissage profond

Les algorithmes non modèles mentionnés dans les premiers paragraphes de la Sec. 3 indiquent que des reconstructions de bout en bout par des méthodes d'apprentissage en profondeur pour l'imagerie optique ou la tomographie sont réalisables. En fait, plusieurs études sur la façon de mapper les données mesurées acquises au détecteur au résultat souhaité en l'absence de modèle avancé ont été présentées.

Une architecture nommée « Net-FLICS » (Network for Fluorescence Lifetime Imaging with Compressive Sensing) a été proposée par Yao et al. fournir une solution de bout en bout pour les reconstructions à la fois de l'intensité de fluorescence et de la durée de vie. 63

Comme le montre la figure 3, Net-FLICS était structuré à plusieurs sorties, composé d'un segment convolutif partagé, d'une branche de reconstruction d'image d'intensité et d'une branche de reconstruction d'image à vie. Le premier segment, composé d'une couche convolutive et de six blocs résiduels, a été partagé par des tâches de reconstruction d'intensité et de durée de vie, filtrant les séquences mesurées principalement le long de l'orientation du motif. Les données tensorielles ont été transposées pour être prêtes à être filtrées le long de l'orientation temporelle. Les données fractionnées ont été transmises à la branche de reconstruction d'image d'intensité et à la branche de reconstruction d'image de durée de vie, respectivement. Dans la branche de reconstruction d'intensité, les données remodelées ont été filtrées par quatre blocs résiduels bidimensionnels (2D), dont chacun comprenait trois couches convolutives. Dans la branche de reconstruction de durée de vie, les convolutions unidimensionnelles (1D) ont été conservées dans quatre blocs, puis les données de tenseur ont été remodelées et les structures ont été transformées en blocs 2D pour s'adapter aux courbes d'intensité des photons afin d'obtenir la durée de vie. Les connexions résiduelles ont été utilisées à la fois pour la construction et la connexion des blocs résiduels. Au bout des deux branches, trois couches convolutives ont été établies pour le filtrage final de l'image.

Fig. 3. Architecture de Net-FLICS. 63 La section supérieure comprend le segment convolutif partagé et la branche de reconstruction d'image d'intensité (à l'intérieur du rectangle en pointillé orange), tandis que la section inférieure comprend la branche de reconstruction d'image à vie (à l'intérieur du rectangle en pointillé violet). Le détail du bloc résiduel nD ( n = 1 , 2 ) est affiché en bas à gauche, respectivement.

Pour évaluer le Net-FLICS proposé, des données compressées ont été acquises sur le système d'imagerie à pixel unique à détection compressive. 64,65 Des images binaires de la base de données MNIST ont été traitées pour générer les images simulées avec différentes intensités et durées de vie, respectivement. Pour augmenter l'ensemble de données, chaque image du MNIST a été traitée pour générer six images : l'image d'origine, tournée de 90 , tournée de 180 , tournée de 270 , basculée vers le haut/bas et gauche/droite. 32 000 échantillons ont été utilisés comme ensemble d'apprentissage et 8 000 échantillons ont été utilisés comme ensemble de test. Des expériences avec un fantôme contenant trois lettres « RPI » remplies de deux colorants, AF750 pour « R » et « I » et HITCI pour « P », ont également été utilisées pour valider le Net-FLICS. Par rapport à la méthode d'ajustement de durée de vie TVL3 + 66, le Net-FLICS a pu obtenir une qualité de reconstruction supérieure pour la lettre teintée HITCT « P » avec la durée de vie reconstruite de 0,97 ns, ce qui était identique à la vérité terrain, mais n'a pas réussi à obtenir la reconstruction souhaitée pour AF750 teint les lettres « R » et « I ». Les auteurs ont attribué l'inadéquation au fait que les modèles générés par DMD n'étaient pas parfaitement binaires, ce qui différait de celui utilisé pour simuler l'ensemble d'apprentissage.

Une méthode de simulation de problème inverse (IPS) basée sur le perceptron multicouche (MLP) a été proposée par Gao et al. pour obtenir une reconstruction de bout en bout pour BLT. 67 L'architecture IPS, qui a construit la cartographie des données mesurées à la surface du tissu biologique jusqu'à la distribution de la bioluminescence à l'intérieur du tissu, consistait en 1 couche d'entrée, 4 couches cachées et 1 couche de sortie. Selon les travaux de Gao, l'IPS pourrait être considéré comme une simulation de la méthode du seuil de retrait itératif (IST) largement utilisée pour résoudre les problèmes inverses. Des échantillons couplés, comprenant à la fois l'intensité des photons à la surface et la source bioluminescente interne, ont été générés en utilisant la méthode MC avec ce que l'on appelle le « maillage standard » pour simuler la migration des photons. Des échantillons avec plusieurs sources ont été générés en synthétisant des échantillons avec une seule source localisée différente. L'erreur de barycentre (BCE) entre la source reconstruite et la vérité terrain a été utilisée pour évaluer quantitativement les résultats de la simulation. Le réseau IPS a été validé en l'évaluant en termes de précision de positionnement, de robustesse, de performance dans la reconstruction à double source et de performance dans la reconstruction de in vivo modèle de souris porteuses de tumeurs.

Cai et al. a proposé un autre algorithme de bout en bout basé sur l'apprentissage en profondeur pour la reconstruction de l'imagerie photoacoustique quantitative (QPAI). 68 Le réseau de neurones profonds proposé s'appelait « ResU-net », une combinaison de U-net et Res-net. Les différences entre le « ResU-net » et la forme de base de U-net étaient que le premier utilisait des blocs résiduels comprenant trois couches convolutives et une normalisation par lots entre chaque deux blocs de branche de contraction et de branche d'expansion. La taille du canal a été maintenue invariante dans chaque bloc résiduel. Des échantillons simulés avec des longueurs d'onde d'éclairage variables, différentes distributions de cibles et différentes concentrations de chromophores ont été générés par un modèle numérique avancé. Trois expériences simulées, dont un cas utilisant une souris numérique 69, ont été réalisées pour valider le « ResU-net » pour la reconstruction de bout en bout de QPAI, ce qui a confirmé les performances de précision de la reconstruction pour la concentration de chromophores et la robustesse pour les propriétés optiques des variantes. et la géométrie.

Récemment, notre groupe a proposé un algorithme de bout en bout pour la reconstruction FMT avec un cadre de réseau de neurones profond. 70 Il a établi une cartographie non linéaire entre la distribution interne des fluorochromes et les mesures aux limites. Il s'agissait d'une architecture d'encodeur-décodeur 3D typique avec 6 entrées 4 × 6 4 × 2 4 et 6 sorties 4 × 6 4 × 1 6, ainsi que plusieurs couches d'opérateurs de convolution et de déconvolution spatiales. 10 000 échantillons de simulation avec des paramètres expérimentaux variables ont été utilisés comme ensemble d'apprentissage, tandis que des échantillons de simulation et des échantillons fantômes ont été utilisés pour la validation. Les résultats des expériences simulées et des expériences fantômes ont démontré la grande amélioration de la reconstruction FMT par rapport aux méthodes conventionnelles. L'algorithme proposé peut être considéré comme le premier algorithme basé sur DNN encodeur-décodeur 3D pour la reconstruction FMT avec des validations expérimentales complètes.

Au moins, une méthode de reconstruction de bout en bout nécessite que le réseau de neurones utilisé ait des capacités pour simuler parfaitement le problème inverse et réduire les erreurs de reconstruction. Par conséquent, l'architecture du réseau de neurones profonds et l'ensemble d'apprentissage doivent être choisis correctement pour éviter d'éventuels effets trompeurs causés par une conception incorrecte.

L'avantage le plus spectaculaire des méthodes de bout en bout est qu'il faut un temps négligeable pour obtenir le résultat souhaité avec un réseau bien formé, bien que le processus de formation puisse prendre du temps.

En résumé, ces trois branches des méthodes basées sur l'apprentissage profond pour la tomographie optique sont validées pour être efficaces par un grand nombre d'expériences. La comparaison est présentée dans le tableau 2. Une méthode d'apprentissage en profondeur basée sur un modèle est difficile à définir. Dans certains cas, les modèles qui doivent être simulés par un cadre d'apprentissage en profondeur sont des modèles de propagation de photons ou certaines parties de modèles de propagation. Alors que dans d'autres cas, les méthodes avec cadre d'apprentissage en profondeur peuvent se concentrer principalement sur la façon de modéliser la mise à jour des matrices pondérées. L'avantage d'utiliser des cadres d'apprentissage en profondeur en tant que post-processus après avoir obtenu les reconstructions est que certains cadres d'apprentissage en profondeur existants, tels que U-net, peuvent être adaptés facilement aux post-processus avec de minuscules changements. Cependant, des méthodes de bout en bout avec apprentissage en profondeur peuvent remplacer les autres méthodes à l'avenir car elles modifient le principe typique de reconstruction pour la tomographie optique. Les résultats finaux peuvent être obtenus directement en partant du principe que les cadres d'apprentissage en profondeur bien conçus sont bien formés. Et bien sûr, il n'y a aucune exigence pour émettre l'hypothèse de modèles de migration de photons, sauf que les ensembles d'apprentissage sont obtenus à partir de simulations.

Tableau 2. Comparaison pour trois catégories de méthodes basées sur l'apprentissage profond.


Imagerie combinée fDOT et microCT

Une heure après l'injection d'ICG ou 24 heures après l'injection d'Angiostamp800, des souris anesthésiées (isoflurane/air : 2 %) ont été placées dans un porte-animal mobile fait maison pour une imagerie bimodale microCT/fDOT. L'imagerie par fluorescence tridimensionnelle a été réalisée sur le foie en utilisant le système fDOT décrit précédemment [3]. L'imagerie MicroCT a été réalisée en ligne à l'aide du système vivaCT40 (Scanco Medical AG, Suisse), dont les paramètres d'acquisition étaient une énergie de 55 keV, une intensité de 177 µA, un temps d'intégration de 300 ms et une résolution isotrope voxel de 80 µm. Les volumes reconstruits par MicroCT et fluorescence 3D ont été fusionnés à l'aide du logiciel ImageJ. Le signal de fluorescence total dans le volume d'intérêt (foie) a été quantifié et exprimé en RLU.


INTRODUCTION

La tomographie optique diffuse (DOT) est une nouvelle modalité d'imagerie avec des applications potentielles dans l'imagerie fonctionnelle du cerveau et la détection du cancer du sein [1-5]. Cette technique d'imagerie cherche à récupérer les paramètres optiques des tissus à partir des mesures des limites de la lumière transmise dans le proche infrarouge ou dans le visible. L'instrumentation du système de tomographie optique est relativement moins chère et portable pour les milieux cliniques[1]. Il a été prouvé que le système DOT peut fournir une alternative viable aux systèmes d'imagerie fonctionnelle actuellement disponibles tels que l'imagerie par résonance magnétique fonctionnelle[1].

Un système DOT typique consiste souvent en une source lumineuse (lasers, lumière blanche), éclairant successivement le tissu biologique depuis la surface à différentes positions de source[1]. Les photons qui se propagent à travers les tissus sont ensuite collectés à plusieurs positions de détecteur sur la surface des tissus[1]. Trois schémas de mesure sont utilisés pour ces mesures : domaine temporel, domaine fréquentiel et onde continue (cw). De ces trois types de mesure, la méthode cw est la plus simple et la moins coûteuse, et peut fournir l'acquisition de données la plus rapide et le niveau de signal sur bruit le plus élevé[6].

L'une des applications du système cw DOT est la dosimétrie lumineuse pour la thérapie photodynamique interstitielle de la prostate (PDT). L'efficacité du traitement par PDT dépend en grande partie du nombre de photons absorbés par les photosensibilisateurs situés dans le tissu tumoral [7]. Ainsi la dosimétrie lumineuse et photosensibilisante est indispensable pour les traitements PDT [8]. Dans notre protocole de PDT de la prostate, les propriétés optiques de la prostate sont d'abord déterminées avant le traitement, de sorte qu'une modélisation et un suivi en temps réel du dépôt de photons dans la prostate puissent être réalisés. Les propriétés optiques de la prostate sont déterminées via un système DOT interstitiel où des sources lumineuses et des détecteurs sont insérés de manière interstitielle dans le tissu prostatique [9].

Dans cette étude, nous présentons des modèles inverses 2D et 3D qui permettent de récupérer les propriétés optiques hétérogènes du tissu prostatique. Un modèle hybride 2D-3D est également présenté. Ces modèles sont construits dans l'environnement COMSOL Multiphysics / MATLab, où les équations aux dérivées partielles sont résolues dans COMSOL Multiphysics et les coefficients des équations hétérogènes sont mis à jour via l'algorithme de Levenberg-Marquardt écrit dans MATLab. Nous avons validé ces modèles proposés en reconstruisant les propriétés optiques des fantômes mathématiques 2D, 3D avec les données simulées numériquement. Nous avons démontré que l'algorithme hybride 2D-3D surpasse l'algorithme 2D et 3D en termes de rapport précision/coût de calcul.


Tomographie optique diffuse à haute résolution utilisant l'imagerie souterraine indirecte à courte portée

Tomographie optique diffuse (DOT) avec caméra à balayage linéaire et projecteur MEMS à balayage linéaire (à gauche) par rapport au DOT traditionnel avec paires source-détecteur ponctuelles (à droite). Les deux arrangements capturent la lumière diffuse indirecte sous la surface à courte portée, mais notre approche est plus efficace et récupère le milieu (rangée du bas) à une résolution beaucoup plus élevée. (cliquez sur la figure pour l'image complète, y compris la comparaison des résultats du DOT traditionnel et la méthode proposée)

Génération d'images indirectes à courte portée pour un petit (gauche) et un grand (droit) pixel à la distance d'éclairage. La scène se compose de trois cylindres intégrés dans un milieu de diffusion, cliquez sur la figure pour l'image complète.

Visualisation de la fonction de phase pour différentes distances entre le pixel et la ligne d'éclairage dans le plan y-z (rangée du haut) et le plan x-y (rangée du bas). S et D représentent respectivement la ligne d'éclairage et l'emplacement des pixels. Au fur et à mesure que la distance entre le pixel et la ligne d'éclairage augmente, les photons ont tendance à se déplacer plus profondément dans le milieu de diffusion, mais entraînent une réduction du nombre de photons atteignant le pixel, réduisant ainsi le rapport signal sur bruit.

Expérimentez la configuration et l'étalonnage pour compenser le désalignement du miroir laser et la non-linéarité des MEMS. L'appareil est monté verticalement au-dessus du conteneur d'échantillon, sans couvercle au-dessus du milieu diffusant. En raison d'un désalignement, le faisceau laser incident sur le miroir MEMS ne sera pas perpendiculaire à la surface du miroir et ne s'alignera pas avec le centre de rotation du MEMS. En raison de la non-linéarité de la mécanique MEMS, le signal de commande d'entrée et les degrés de rotation ne sont pas liés linéairement. Cliquez sur la figure pour l'image complète.

Images de données réelles et résultats pour les inclusions de plusieurs objets. Le milieu diffusant est du lait écrémé avec peu ou pas d'eau diluée. Cliquez sur la figure pour l'image complète

Vidéo

Nous montrons l'illustration du schéma de travail et les résultats de la reconstruction dans la vidéo

D'où vient la convolution dans le modèle direct ?
Il provient de : (1) l'utilisation de lignes d'éclairage par balayage et d'exposition de la caméra pour remplacer les paires source-détecteur dans le DOT traditionnel (2) la distribution de la direction de propagation de la lumière isotrope dans un milieu de diffusion dense. Pour (2), l'hypothèse est vraie pour un milieu de diffusion dense tel que la peau humaine. Nous testons la robustesse de notre méthode contre l'échec de cette hypothèse dans l'article. Notre méthode fonctionne pour une large gamme de coefficients de diffusion du milieu. Veuillez vous référer à la section 6.1 pour plus de détails.

De quoi dépendent la fonction de phase et le noyau ?
Ils dépendent de la source-détecteur (pour le DOT traditionnel utilisant des sources ponctuelles et des détecteurs) ou de la séparation entre les lignes d'illumination et d'exposition (pour notre méthode), et des coefficients de diffusion et d'absorption du milieu homogène entourant les hétérogénéités.

Compte tenu de la séparation des lignes, comment obtenir le noyau de phase ? Autrement dit, comment obtenir les coefficients d'absorption et de diffusion pour le milieu homogène ?
Nous optimisons les coefficients d'absorption et de diffusion du milieu homogène en résolvant un problème inverse pour la région homogène. Théoriquement, les intensités d'image dans une zone 1 x 1 (un point) dans la région homogène sont suffisantes pour résoudre les coefficients. Nous prenons une région homogène et calculons les valeurs moyennes sur la région pour obtenir l'ensemble des intensités pour réduire le bruit. La région homogène peut être soit sélectionnée manuellement, soit automatiquement en tant que régions à faible contraste spatial dans toutes les images indirectes à courte portée.

Dans l'expérience, quelle est la séparation maximale entre la ligne d'éclairage et la ligne d'exposition de la caméra sur la surface ?
Dans notre expérience, la séparation va jusqu'à environ 10 mm sur la surface. Le réglage de séparation maximale dépend de la profondeur détectée et du budget temps de capture des données. Pour une séparation plus importante, une hétérogénéité plus profonde peut être détectée et reconstruite. Mais le signal est plus faible en raison de la diffusion et de l'absorption plus importantes, nous devons donc utiliser des expositions de caméra plus longues, d'où un budget temps plus important.

Le diamètre du laser s'étend sur plusieurs pixels dans l'image prise avec une petite caméra FoV. Est-ce pris en compte ?
Oui. Nous précalibrons le profil 1D à travers l'éclairage de la ligne laser et prenons cela en compte dans le modèle avant en tant que convolution spatiale.

Quel est le point noir au centre des images indirectes à courte portée ?
La zone noire est l'artefact causé par le verre de protection devant le miroir MEMS que nous utilisons. Une partie de la lumière laser est réfléchie directement par le verre de protection sans être manipulée par le miroir MEMS. De plus, il y a une inter-réflexion entre le verre et le miroir MEMS. En conséquence, dans l'image brute, il y a un point lumineux au milieu de l'image. Cela pose un problème, en particulier pour le milieu hautement diffusant, car la région du point lumineux sera beaucoup plus grande que le point laser lui-même en raison des diffusions souterraines.

Pour améliorer ce problème, nous soustrayons l'image "sombre" des images capturées, où l'image "sombre" est capturée avec le laser pointant à l'extérieur de l'échantillon et du FoV pour la caméra. Cependant, comme l'inter-réflexion entre le verre et le miroir MEMS dépend également de l'orientation du miroir MEMS, il y a toujours un artefact (la région noire) au centre de l'image après avoir appliqué l'astuce simple. Un moyen plus simple et plus prometteur de se débarrasser de cet artefact consiste à retirer le verre protecteur. Mais cela devrait être fait dans une salle blanche pour éviter la contamination du miroir MEMS.

La méthode est-elle robuste à l'échec de l'hypothèse du DOT traditionnel selon laquelle les coefficients de diffusion des hétérogénéités et de l'homogène environnant sont proches ?
Oui. Nous testons l'algorithme avec différents coefficients de diffusion pour les hétérogénéités et un coefficient de diffusion fixe pour l'environnement, en utilisant des données simulées Monte Carlo. Les performances ne se dégradent pas si le coefficient de diffusion de l'hétérogénéité varie. Veuillez vous référer à la section 6.1 du document pour plus de détails.

Les spécifications du MEMS ?
Nous utilisons le kit de développement Mirrorcle MEMS. L'actionneur de balayage est de conception à deux axes sans cardan. Le miroir MEMS a un diamètre de 1,2 mm, avec une plage angulaire opérationnelle de -5 à 5 degrés sur les axes x et y. Nous utilisons le mode point à point (quasi-statique) pour projeter des graphes vectoriels.

Projets liés

Codes homogènes pour un éclairage et une imagerie écoénergétiques
Matt O'Toole, Supreeth Achar, Srinivasa G. Narasimhan et Kiriakos N. Kutulakos
Transactions ACM sur les graphiques (SIGGRAPH) 2015

Acquisition et caractérisation du transport lumineux indirect plan-rayon
Hiroyuki Kubo, Suren Jayasuriya, Takafumi Iwaguchi, Takuya Funatomi, Yasuhiro Mukaigawa et Srinivasa G. Narasimhan
Conférence internationale IEEE sur la photographie numérique (ICCP) 2018