DNA-Encoded Libraries and AI for Compound Identification
Ein Experteninterview zum Einsatz von DNA-encoded libraries zur Verbindungserkennung mit Eric Sigel, Co-Founder & CEO bei Citadel Discovery, und Dr. Thomas Wollmann, CTO bei Merantix Momentum. Moderiert von Dr. Gillian Hertlein, Strategische Projektmanagerin bei Merantix Momentum.
Gillian: Vielen Dank, dass ihr beide heute dabei seid. Ich möchte Eric Sigel, CEO bei Citadel Discovery, begrüßen. Er hat über zwei Jahrzehnte Erfahrung in der Arzneimittelforschung, einschließlich wegweisender Arbeit in DNA-encoded libraries und Anwendungen des maschinellen Lernens, und Thomas Wollmann, CTO bei Merantix Momentum, der einen Hintergrund in der Mikroskopiebildanalyse für die Systembiologie hat und umfangreich in verschiedenen Bereichen der medizinischen Informatik gearbeitet hat.
Lasst uns direkt in das Thema der DNA-encoded libraries einsteigen. Einigen unserer Leser mag das Konzept nicht vertraut sein. Eric, könntest du eine vereinfachte Erklärung geben, wie traditionelle Methoden kleine Moleküle in der Arzneimittelforschung identifizieren?
Eric: Vielen Dank, Gillian. In der traditionellen Arzneimittelforschung suchen Wissenschaftler nach kleinen Molekülen, die mit einem Zielprotein interagieren können. Sie verlassen sich oft auf biochemische oder zellbasierte Assays, um diese Moleküle zu identifizieren. Es ist ein bisschen so, als würde man eine Nadel (die aktiven Moleküle) in einem Heuhaufen (großen Sammlungen von Molekülen) suchen. Diese Methoden sind wirksam, aber sie können zeitaufwendig und kostspielig sein.
Gillian: Könntest du erklären, wie DNA-encoded libraries funktionieren und wie sie diesen Prozess revolutioniert haben?
Eric: Traditionelle Methoden mit DEL beginnen mit einem spezialisierten molekularen Kopfteil, das DNA- und Chemiekomponenten enthält. Dieses Kopfteil wird mit einer Reihe von chemischen Bausteinen und einem kodierenden DNA-Strang in aufeinanderfolgenden Schritten reagiert. Dieser Prozess, bekannt als Split and Pool, ermöglicht es uns, eine Bibliothek von Verbindungen zu erstellen, die von Millionen bis zu Milliarden reichen kann, wobei jede Verbindung durch DNA kodiert ist. Diese Bibliotheken können dann mit einem Protein von Interesse inkubiert werden, und die Moleküle, die an das Protein binden, werden isoliert, gewaschen und mittels Next-Generation-Sequencing wie Illumina identifiziert. Dieser Ansatz bietet den Vorteil, gleichzeitig eine große Anzahl von Verbindungen zu testen, im Gegensatz zu traditionellen Methoden, die jeweils eine Verbindung testen.
Gillian: Könntest du ausführen, wie maschinelles Lernen bei DNA-encoded libraries zum Einsatz kommt?
Eric: Maschinelles Lernen spielt eine entscheidende Rolle bei der Analyse der riesigen Datenmengen, die durch DNA-encoded libraries generiert werden. Es ist hervorragend geeignet, statistische Trends in komplexen Datensätzen zu identifizieren. Wenn man mit so umfangreichen Daten umgeht, können menschliche Analysten die Informationen nicht effektiv verarbeiten. Maschinelles Lernen tritt ein, um Daten zu filtern und Trends zu identifizieren, auch auf Ebenen, die von menschlichen Analysten möglicherweise nicht bemerkt werden. Es kann Muster erkennen, die über die gesamte Bibliothek generalisierbar sind, und uns so erlauben, die Wahrscheinlichkeit der Interaktion von Molekülen mit dem Protein vorherzusagen, was insbesondere für die kosteneffektive Auswahl und Optimierung von Molekülen nützlich ist.
Gillian: Thomas, in Anbetracht deiner Expertise in Zellbiologie, könntest du Einblicke teilen, wie diese Technologie in zellbiologischen Umgebungen angewendet werden könnte?
Thomas: Sicher, die Barcode-Technik, die bei DNA-encoded libraries verwendet wird, ist auch in der Zellbiologie relevant. Sie ermöglicht Forschern, gleichzeitig Phänotypen auf zellulärer Ebene zu untersuchen und Einzelzellen zu sequenzieren. Dieser Ansatz eröffnet neue Möglichkeiten für die Untersuchung einzelner Zellen innerhalb einer Population, was wertvolle Erkenntnisse liefern kann. Er ermöglicht es Forschern, Zellen individuell zu analysieren, unter Berücksichtigung ihrer einzigartigen Eigenschaften, was insbesondere im Kontext heterogener Zellpopulationen nützlich ist.
Gillian: Eric, trotz der Vorteile von DNA-encoded libraries ist die Praxis noch nicht in allen Arzneimittel-Screenings Standard. Was sind einige Gründe, warum manche Menschen immer noch traditionelle High-Throughput-Screening (HTS)-Methoden(1) bevorzugen?
Eric: Traditionelles HTS hat seine Verdienste, und es gibt Gründe, warum sich einige Forscher dafür entscheiden. HTS liefert Daten, die dem Ausgabeprofil von Interesse ähnlich sind, wie z. B. biochemische oder zellbasierte Assay-Resultate. Zusätzlich verfügen viele Forscher über etablierte HTS-Fähigkeiten, einschließlich großer Verbindungssammlungen und Robotersysteme. Dennoch gewinnen DNA-encoded libraries aufgrund ihrer Kosteneffektivität, der Fähigkeit, gleichzeitig mehrere Bedingungen zu testen, und des Potenzials für eine breite Anwendbarkeit auf verschiedene Zieltypen an Boden. Es ist jedoch zu beachten, dass DNA-encoded libraries möglicherweise nicht für alle Ziele geeignet sind, insbesondere für solche, die schwer zu reinigen sind oder intrinsisch ungeordnete Proteine(2) sind.
Gillian: Lass uns über Vorhersagen sprechen. Wie machst du Vorhersagen darüber, welche Verbindungen an ein Protein binden werden, und wie bewertest du die Genauigkeit dieser Vorhersagen?
Eric: Vorhersagen sind ein entscheidender Aspekt des Arzneimittelforschungsprozesses. Beim Treffen von Vorhersagen ist es essentiell, diese durch experimentelle Tests zu validieren. Ein Ansatz besteht darin, retrospektiv Verbindungen vorherzusagen, die identifiziert wurden (mit oder ohne maschinelles Lernen), und dann diese Vorhersagen mit den tatsächlichen experimentellen Ergebnissen zu vergleichen. Das ermöglicht uns, die Genauigkeit unserer maschinellen Lernmodelle einzuschätzen. Außerdem werden Vorhersagen inhärent getestet, wenn wir Moleküle auf der Grundlage dieser Vorhersagen auswählen und deren Bindung an ein Protein bewerten. Ein iterativer Prozess (von Vorhersage und Testen) hilft uns, unsere Modelle im Laufe der Zeit zu verfeinern und zu verbessern.
Gillian: Eine Frage an euch beide. Wie seht ihr die Zukunft der Wirkstoffidentifizierung mit der Integration von KI und maschinellem Lernen?
Thomas: Ich sehe zwei Hauptbereiche, in denen KI und maschinelles Lernen die Wirkstoffidentifizierung weiter revolutionieren werden. Erstens werden wir Fortschritte im Design-Make-Test-Zyklus sehen, mit der Integration von Automatisierung und Systemen, die schnellere Experimente und Datenerfassung ermöglichen. Dies wird es uns erlauben, unsere Modelle kontinuierlich zu verbessern und Vorhersagen in größerem Maßstab zu treffen. Zweitens gibt es eine wachsende Möglichkeit, historische Daten und Kontextinformationen aus verschiedenen Quellen, einschließlich Literatur und Datenbanken, zu nutzen. Mit verbesserten Data-Mining-Techniken und ontologischem Mapping können wir bessere Modelle für die Wirkstoffidentifizierung aufbauen, indem wir verschiedene Datensätze effektiv integrieren.
Eric: Ich stimme Thomas zu und möchte noch ein paar Punkte hinzufügen. Erstens wird die Kombination aus computergestützter Chemie und maschinellem Lernen zunehmend wichtiger. Forscher werden die Synergie zwischen physikbasierten Berechnungen und maschinellem Lernen erforschen, um molekulare Wechselwirkungen besser zu verstehen. Zweitens werden Fortschritte bei der Vorhersage von Proteinstrukturen, wie sie zum Beispiel bei AlphaFold zu sehen sind, genauere Vorhersagen von Wechselwirkungen kleiner Moleküle mit Proteinen ermöglichen. Wir werden auch Verbesserungen bei der Multi-Parameter-Optimierung erleben, wo Modelle sowohl die Wirksamkeit von Molekülen als auch deren Medikamenteneigenschaften berücksichtigen werden. Schließlich müssen logistische Herausforderungen, wie schnellere Experimentdurchlaufzeiten, angegangen werden, damit maschinelles Lernen und Arzneimittelforschung nahtlos funktionieren.
Gillian: Wie viele Jahre, glaubt ihr, wird es dauern, bis wir uns auf Vorhersagen verlassen können, um Verbindungen ohne umfangreiche Testung von Bibliotheken zu erstellen?
Eric: Es ist schwierig, einen genauen Zeitrahmen vorherzusagen, aber ich glaube, wir machen schnelle Fortschritte. Ich wäre nicht überrascht, wenn wir in ein paar Jahren in der Lage sein könnten, Verbindungen basierend auf Vorhersagen für bestimmte Fälle zu identifizieren. Vielleicht könnte es innerhalb eines Jahrzehnts eine regelmäßige Praxis werden. Es ist jedoch wichtig zu beachten, dass es immer Fälle geben wird, bei denen aufgrund der enormen kombinatorischen Komplexität von Molekül-Protein-Wechselwirkungen Tests notwendig sein werden.
Thomas: Ich stimme Eric zu. Wir machen bedeutende Fortschritte und könnten in den nächsten Jahren die Fähigkeit beobachten, Verbindungen basierend auf Vorhersagen in spezifischen Fällen zu erstellen. Innerhalb eines Jahrzehnts könnte es zur Routine werden. Dennoch wird es immer Szenarien geben, in denen Tests aufgrund der Komplexität molekularer Kombinationen wesentlich bleiben.
Gillian: Ich danke euch beiden für eure Antworten. Wir schätzen eure Zeit und eure Expertise.
-
(1) High-Throughput-Screening (HTS): Ein Prozess in der Arzneimittelforschung, der es ermöglicht, große Mengen an chemischen und/oder biologischen Verbindungen automatisiert auf ein spezifisches biologisches Ziel zu testen, beispielsweise durch Bindungsassays.
(2) Intrinsisch ungeordnete Proteine: Diese Proteine verfügen über keine wohldefinierte dreidimensionale Struktur, zeigen jedoch eine gewisse dynamische und strukturelle Ordnung.
Jetzt beim Merantix Momentum Newsletter anmelden.
Weitere Artikel
DNA-Encoded Libraries and AI for Compound Identification
Ein Experteninterview zum Einsatz von DNA-encoded libraries zur Verbindungserkennung mit Eric Sigel, Co-Founder & CEO bei Citadel Discovery, und Dr. Thomas Wollmann, CTO bei Merantix Momentum. Moderiert von Dr. Gillian Hertlein, Strategische Projektmanagerin bei Merantix Momentum.
Gillian: Vielen Dank, dass ihr beide heute dabei seid. Ich möchte Eric Sigel, CEO bei Citadel Discovery, begrüßen. Er hat über zwei Jahrzehnte Erfahrung in der Arzneimittelforschung, einschließlich wegweisender Arbeit in DNA-encoded libraries und Anwendungen des maschinellen Lernens, und Thomas Wollmann, CTO bei Merantix Momentum, der einen Hintergrund in der Mikroskopiebildanalyse für die Systembiologie hat und umfangreich in verschiedenen Bereichen der medizinischen Informatik gearbeitet hat.
Lasst uns direkt in das Thema der DNA-encoded libraries einsteigen. Einigen unserer Leser mag das Konzept nicht vertraut sein. Eric, könntest du eine vereinfachte Erklärung geben, wie traditionelle Methoden kleine Moleküle in der Arzneimittelforschung identifizieren?
Eric: Vielen Dank, Gillian. In der traditionellen Arzneimittelforschung suchen Wissenschaftler nach kleinen Molekülen, die mit einem Zielprotein interagieren können. Sie verlassen sich oft auf biochemische oder zellbasierte Assays, um diese Moleküle zu identifizieren. Es ist ein bisschen so, als würde man eine Nadel (die aktiven Moleküle) in einem Heuhaufen (großen Sammlungen von Molekülen) suchen. Diese Methoden sind wirksam, aber sie können zeitaufwendig und kostspielig sein.
Gillian: Könntest du erklären, wie DNA-encoded libraries funktionieren und wie sie diesen Prozess revolutioniert haben?
Eric: Traditionelle Methoden mit DEL beginnen mit einem spezialisierten molekularen Kopfteil, das DNA- und Chemiekomponenten enthält. Dieses Kopfteil wird mit einer Reihe von chemischen Bausteinen und einem kodierenden DNA-Strang in aufeinanderfolgenden Schritten reagiert. Dieser Prozess, bekannt als Split and Pool, ermöglicht es uns, eine Bibliothek von Verbindungen zu erstellen, die von Millionen bis zu Milliarden reichen kann, wobei jede Verbindung durch DNA kodiert ist. Diese Bibliotheken können dann mit einem Protein von Interesse inkubiert werden, und die Moleküle, die an das Protein binden, werden isoliert, gewaschen und mittels Next-Generation-Sequencing wie Illumina identifiziert. Dieser Ansatz bietet den Vorteil, gleichzeitig eine große Anzahl von Verbindungen zu testen, im Gegensatz zu traditionellen Methoden, die jeweils eine Verbindung testen.
Gillian: Könntest du ausführen, wie maschinelles Lernen bei DNA-encoded libraries zum Einsatz kommt?
Eric: Maschinelles Lernen spielt eine entscheidende Rolle bei der Analyse der riesigen Datenmengen, die durch DNA-encoded libraries generiert werden. Es ist hervorragend geeignet, statistische Trends in komplexen Datensätzen zu identifizieren. Wenn man mit so umfangreichen Daten umgeht, können menschliche Analysten die Informationen nicht effektiv verarbeiten. Maschinelles Lernen tritt ein, um Daten zu filtern und Trends zu identifizieren, auch auf Ebenen, die von menschlichen Analysten möglicherweise nicht bemerkt werden. Es kann Muster erkennen, die über die gesamte Bibliothek generalisierbar sind, und uns so erlauben, die Wahrscheinlichkeit der Interaktion von Molekülen mit dem Protein vorherzusagen, was insbesondere für die kosteneffektive Auswahl und Optimierung von Molekülen nützlich ist.
Gillian: Thomas, in Anbetracht deiner Expertise in Zellbiologie, könntest du Einblicke teilen, wie diese Technologie in zellbiologischen Umgebungen angewendet werden könnte?
Thomas: Sicher, die Barcode-Technik, die bei DNA-encoded libraries verwendet wird, ist auch in der Zellbiologie relevant. Sie ermöglicht Forschern, gleichzeitig Phänotypen auf zellulärer Ebene zu untersuchen und Einzelzellen zu sequenzieren. Dieser Ansatz eröffnet neue Möglichkeiten für die Untersuchung einzelner Zellen innerhalb einer Population, was wertvolle Erkenntnisse liefern kann. Er ermöglicht es Forschern, Zellen individuell zu analysieren, unter Berücksichtigung ihrer einzigartigen Eigenschaften, was insbesondere im Kontext heterogener Zellpopulationen nützlich ist.
Gillian: Eric, trotz der Vorteile von DNA-encoded libraries ist die Praxis noch nicht in allen Arzneimittel-Screenings Standard. Was sind einige Gründe, warum manche Menschen immer noch traditionelle High-Throughput-Screening (HTS)-Methoden(1) bevorzugen?
Eric: Traditionelles HTS hat seine Verdienste, und es gibt Gründe, warum sich einige Forscher dafür entscheiden. HTS liefert Daten, die dem Ausgabeprofil von Interesse ähnlich sind, wie z. B. biochemische oder zellbasierte Assay-Resultate. Zusätzlich verfügen viele Forscher über etablierte HTS-Fähigkeiten, einschließlich großer Verbindungssammlungen und Robotersysteme. Dennoch gewinnen DNA-encoded libraries aufgrund ihrer Kosteneffektivität, der Fähigkeit, gleichzeitig mehrere Bedingungen zu testen, und des Potenzials für eine breite Anwendbarkeit auf verschiedene Zieltypen an Boden. Es ist jedoch zu beachten, dass DNA-encoded libraries möglicherweise nicht für alle Ziele geeignet sind, insbesondere für solche, die schwer zu reinigen sind oder intrinsisch ungeordnete Proteine(2) sind.
Gillian: Lass uns über Vorhersagen sprechen. Wie machst du Vorhersagen darüber, welche Verbindungen an ein Protein binden werden, und wie bewertest du die Genauigkeit dieser Vorhersagen?
Eric: Vorhersagen sind ein entscheidender Aspekt des Arzneimittelforschungsprozesses. Beim Treffen von Vorhersagen ist es essentiell, diese durch experimentelle Tests zu validieren. Ein Ansatz besteht darin, retrospektiv Verbindungen vorherzusagen, die identifiziert wurden (mit oder ohne maschinelles Lernen), und dann diese Vorhersagen mit den tatsächlichen experimentellen Ergebnissen zu vergleichen. Das ermöglicht uns, die Genauigkeit unserer maschinellen Lernmodelle einzuschätzen. Außerdem werden Vorhersagen inhärent getestet, wenn wir Moleküle auf der Grundlage dieser Vorhersagen auswählen und deren Bindung an ein Protein bewerten. Ein iterativer Prozess (von Vorhersage und Testen) hilft uns, unsere Modelle im Laufe der Zeit zu verfeinern und zu verbessern.
Gillian: Eine Frage an euch beide. Wie seht ihr die Zukunft der Wirkstoffidentifizierung mit der Integration von KI und maschinellem Lernen?
Thomas: Ich sehe zwei Hauptbereiche, in denen KI und maschinelles Lernen die Wirkstoffidentifizierung weiter revolutionieren werden. Erstens werden wir Fortschritte im Design-Make-Test-Zyklus sehen, mit der Integration von Automatisierung und Systemen, die schnellere Experimente und Datenerfassung ermöglichen. Dies wird es uns erlauben, unsere Modelle kontinuierlich zu verbessern und Vorhersagen in größerem Maßstab zu treffen. Zweitens gibt es eine wachsende Möglichkeit, historische Daten und Kontextinformationen aus verschiedenen Quellen, einschließlich Literatur und Datenbanken, zu nutzen. Mit verbesserten Data-Mining-Techniken und ontologischem Mapping können wir bessere Modelle für die Wirkstoffidentifizierung aufbauen, indem wir verschiedene Datensätze effektiv integrieren.
Eric: Ich stimme Thomas zu und möchte noch ein paar Punkte hinzufügen. Erstens wird die Kombination aus computergestützter Chemie und maschinellem Lernen zunehmend wichtiger. Forscher werden die Synergie zwischen physikbasierten Berechnungen und maschinellem Lernen erforschen, um molekulare Wechselwirkungen besser zu verstehen. Zweitens werden Fortschritte bei der Vorhersage von Proteinstrukturen, wie sie zum Beispiel bei AlphaFold zu sehen sind, genauere Vorhersagen von Wechselwirkungen kleiner Moleküle mit Proteinen ermöglichen. Wir werden auch Verbesserungen bei der Multi-Parameter-Optimierung erleben, wo Modelle sowohl die Wirksamkeit von Molekülen als auch deren Medikamenteneigenschaften berücksichtigen werden. Schließlich müssen logistische Herausforderungen, wie schnellere Experimentdurchlaufzeiten, angegangen werden, damit maschinelles Lernen und Arzneimittelforschung nahtlos funktionieren.
Gillian: Wie viele Jahre, glaubt ihr, wird es dauern, bis wir uns auf Vorhersagen verlassen können, um Verbindungen ohne umfangreiche Testung von Bibliotheken zu erstellen?
Eric: Es ist schwierig, einen genauen Zeitrahmen vorherzusagen, aber ich glaube, wir machen schnelle Fortschritte. Ich wäre nicht überrascht, wenn wir in ein paar Jahren in der Lage sein könnten, Verbindungen basierend auf Vorhersagen für bestimmte Fälle zu identifizieren. Vielleicht könnte es innerhalb eines Jahrzehnts eine regelmäßige Praxis werden. Es ist jedoch wichtig zu beachten, dass es immer Fälle geben wird, bei denen aufgrund der enormen kombinatorischen Komplexität von Molekül-Protein-Wechselwirkungen Tests notwendig sein werden.
Thomas: Ich stimme Eric zu. Wir machen bedeutende Fortschritte und könnten in den nächsten Jahren die Fähigkeit beobachten, Verbindungen basierend auf Vorhersagen in spezifischen Fällen zu erstellen. Innerhalb eines Jahrzehnts könnte es zur Routine werden. Dennoch wird es immer Szenarien geben, in denen Tests aufgrund der Komplexität molekularer Kombinationen wesentlich bleiben.
Gillian: Ich danke euch beiden für eure Antworten. Wir schätzen eure Zeit und eure Expertise.
-
(1) High-Throughput-Screening (HTS): Ein Prozess in der Arzneimittelforschung, der es ermöglicht, große Mengen an chemischen und/oder biologischen Verbindungen automatisiert auf ein spezifisches biologisches Ziel zu testen, beispielsweise durch Bindungsassays.
(2) Intrinsisch ungeordnete Proteine: Diese Proteine verfügen über keine wohldefinierte dreidimensionale Struktur, zeigen jedoch eine gewisse dynamische und strukturelle Ordnung.