Menu

Japan Week Spokane

Toxicité prédictive: Grands défis

Les produits chimiques, qu’ils soient exogènes ou endogènes, affectent les organismes. Parfois, ces effets sont considérés comme bénéfiques, par exemple lorsque des produits pharmaceutiques sont utilisés pour traiter des maladies ou leurs symptômes. Cependant, dans la plupart des cas, les effets sont considérés indifférents, non intentionnels, nocifs ou purement toxiques, voire menaçants pour la survie. La prévention de ces effets est le meilleur moyen d’action, mais cela nécessite des connaissances appropriées pour évaluer le danger et le risque présenté par un produit chimique donné à un organisme donné. La meilleure connaissance provient d’un organisme qui a été exposé au produit chimique en question à des doses telles que les effets peuvent être observés et évalués. Cependant, dans la plupart des cas, cette connaissance est obtenue plutôt à la fin, à partir de situations dans lesquelles un organisme a déjà été exposé à un produit chimique et a subi ses effets. Par conséquent, le défi le plus important en toxicologie est de développer des outils et des approches qui prédisent le potentiel de toxicité des produits chimiques de manière suffisamment fiable avant que les humains ou tout autre organisme vivant leur soient exposés. La réalisation de cet objectif essentiel nécessite des scientifiques compétences polyvalentes et de différents horizons, en utilisant une variété d’outils et d’approches. La tâche la plus urgente est peut-être d’affiner, de réduire et de remplacer les systèmes de test basés sur des espèces de mammifères par des systèmes submammaliens ou in vitro. Le paradigme actuel des tests de toxicité dépend fortement des tests sur les animaux qui ont été développés il y a des décennies. Maintenant, la toxicologie réglementaire, au moins dans l’UE, est contestée par la législation REACH, qui exige des tests de milliers de produits chimiques en quelques années. Ceci est prohibitif et jugé impossible par certains. Il est clair que des systèmes de test in vitro robustes et fiables seront développés pour aider à la prédiction de la toxicité et à l’évaluation des risques. Cependant, cette tâche nécessite une énorme quantité de recherche fondamentale.Nous devons identifier les étapes limitant la vitesse dans la séquence d’événements conduisant à une toxicité manifeste. Ces étapes limitantes doivent être mesurées dans un système in vitro approprié contenant des composants biologiques appropriés. Le résultat du test doit être en relation directe avec ce qui se passe in vivo, c’est-à-dire que le point final de toxicité (par exemple cytotoxicité) dans un composant biologique approprié (par exemple, hépatocytes en culture) devrait prédire l’hépatotoxicité in vivo potentielle. Les tests de toxicité impliquent toujours une validation, même si la validation n’est pas très “ excitante ” du point de vue scientifique. Pourtant, c’est peut-être la tâche la plus importante d’un point de vue pratique, car les résultats des essais de toxicité profitent à la société humaine en général. Le système de test in vitro ne représente qu’une petite partie d’un organisme vivant entier. Ainsi, pour extrapoler le résultat, un certain nombre d’autres facteurs doivent être connus, mesurés ou supposés. Mettre les expériences in vitro dans un cadre utile nécessite des modèles et des simulations, de simples corrélations entre les résultats in vitro et les connaissances in vivo (par exemple, les relations structure-activité) à des modèles physiologiques complexes pour la simulation du comportement et des effets des produits chimiques. Les modèles et les simulations sans données expérimentales sont des exercices vides, de sorte que les données expérimentales doivent être correctes et reproductibles. La littérature actuelle contient une grande quantité d’informations; mais encore, c’est une tâche importante de le mettre sous une forme curatée qui peut être utilisée de manière fiable pour la modélisation, la simulation et la validation chronique. Des stratégies de test intégrées ont été suggérées pour résoudre les problèmes inhérents aux paradigmes actuels des tests de toxicité. De telles approches impliquent l’utilisation d’informations déjà existantes sur les produits chimiques et leurs congénères, combinées avec les données produites par des études in vitro et in vivo, qui peuvent inclure “ omics ” les technologies, les techniques d’imagerie et les plates-formes de test à haut débit et, si nécessaire, complétées et confirmées par des études animales. Naturellement, il est prévu que ces stratégies de test intégrées reposent fortement sur des techniques de calcul intelligentes. Mais le plus grand obstacle à l’adoption d’une telle stratégie intégrée est peut-être une certaine dose de conservatisme dans le système réglementaire, bien que cela semble actuellement se dissiper. Les prévisions basées sur ces nouvelles approches seront-elles suffisamment convaincantes pour convaincre les régulateurs? , abandonner les animaux comme principal biocomposant dans les tests de toxicité? Pour atteindre cet objectif, de nouvelles méthodes de validation sont nécessaires, telles que la validation en rapport avec les tests réels. Il est difficile de prédire si cela serait acceptable pour les régulateurs, mais il est utile de regarder les conséquences des schémas de validation actuels: parce que la validation d’un seul test peut prendre 5-10 ans, les tests actuellement en cours de validation sont basés sur “ ancien ” science. D’une certaine manière, le développement scientifique devrait être autorisé à être intégré dans le processus de validation; ceci est certainement l’un des objectifs ultimes de Frontiers in Predictive Toxicity.