Die DLR Quantencomputing-Initiative (DLR QCI) kooperiert eng mit Startups und Industriepartnern. Es geht darum, die Entwicklung von Hardware und Software früh an konkreten Anwendungen zu orientieren und erproben. Die Münchener planqc GmbH ist eines der involvierten Startups.Ihr Gründer und CEO, Dr. Alexander Glätzle, und der Leiter der DLR Quantencomputing-Initiative, Dr. Robert Axmann, sprechen im aktuellen PHOTONICS Interview über die gemeinsamen Ziele ihrer Kooperation, technologische und organisatorische Herausforderungen und das riesige Anwendungspotenzial von Quantencomputern.
Herr Dr. Axmann, können Sie uns die DLR Quantencomputing-Initiative kurz vorstellen?
Dr. Robert Axmann: Ursprünglich geht die Initiative auf das Bundesministerium für Wirtschaft und Klimaschutz (BMWK) zurück. Es hat das DLR damit beauftragt, die Entwicklung, den Bau und die Nutzung von Quantencomputern gemeinsam mit der Industrie voranzutreiben. Damit haben wir 2021 begonnen und seither zwei Zentren in Hamburg und Ulm aufgebaut. Wir schreiben wettbewerbliche Verfahren zum Bau von Quantencomputern und zur Entwicklung von Software aus. Wir verfolgen mit den Auftragnehmern verschiedene technologische Ansätze für Quantencomputer mit verschiedenen Spezifikationen und den Aufbau unterschiedlicher Technologieplattformen. Parallel adressieren wir die Software und Anwendung, wobei wir teils DLR-interne Projekte und teils Projekte mit Industriepartnern verfolgen. Sobald wir die Computer haben, werden wir sie außerdem im operativen Betrieb innerhalb des DLR einsetzen.
Und welche Mission verfolgt Ihr Startup planqc, Herr Dr. Glätzle?
Dr. Alexander Glätzle: Unsere Mission ist es Quantencomputer zu bauen: Fullstack-Computer von der Hardware und den Qubits bis zu den Quanten-Algorithmen, die wir im Co-Design entwickeln. Das große Ziel: Eines der unlösbaren Billion-Dollar-Probleme in den Materialwissenschaften, der Pharma-Entwicklung oder der Klimaforschung zu lösen, die auch auf den besten klassischen Supercomputern bisher nicht berechnet werden können. Hierfür setzen wir auf der Neutralatom-Technologie auf, die auf jahrzehntelanger Spitzenforschung des Max-Planck-Instituts für Quantenoptik in Garching – sowie auf vorausschauender Förderung der Photonik-Industrie in Deutschland beruht. Zu unserer Mission gehört außerdem der Nachweis, dass der Technologietransfer aus der Wissenschaft in die Industrie gelingen kann. Es geht darum, global wettbewerbsfähige Quantencomputer „Made in Germany“ zu realisieren.
Welche Rolle spielen Startups bei dem Vorhaben, DLR-Instituten und Ihren externen Partnern Zugang zu Quantencomputern zu verschaffen?
Axmann: Wir schreiben wettbewerblich aus – und spannenderweise sind es in erster Linie Startups, die Angebote einreichen. Klassische Großindustrie sehen wir selten; bisher konnte sie sich mit ihren Ideen und Angeboten kaum durchsetzen. Eher sind es Spin-offs aus Forschungsinstituten, die auf ihren akademischen Hintergrund zurückgreifen können, sehr hohe wissenschaftlich-technische Qualität mitbringen und auf ihre Ideen fokussiert sind. Ich sehe Startups tatsächlich als die treibende Kraft beim Bau von Quantencomputern und den entsprechenden Lieferketten. Ob sie nun Ionenfallen- oder Neutralatom-Quantencomputer entwickeln, ihr Know-how, ihre Teams und der Zugriff auf neueste Forschungsergebnisse und Ratgeber aus den Wissenschaften zeichnen diese Unternehmen aus.
Wie sehen Sie die Rolle der Startups im jungen Markt und im DLR-Netzwerk, Herr Glätzle?
Glätzle: Startups sind im Vergleich zu großen Unternehmen oder akademischen Instituten beweglich, schnell und stark fokussiert – wie Schnellboote im Vergleich zu Supertankern. Das ist wohl auch der Grund, warum sie in den DLR-Ausschreibungen so stark vertreten sind. Die wesentlichen Bausteine für Quantencomputer sind im akademischen Kontext bereits demonstriert worden. Wir wissen, dass die Ansätze im Labormaßstab funktionieren und treten als junge Unternehmen an, sie in marktreife, industriell nutzbare Rechner zu übersetzen. Dafür müssen wir die technologische Reife steigern, die die Systeme miniaturisieren und wartungsarm auslegen. Auf diese Aufgaben können wir uns als Startups voll konzentrieren. Wir haben zudem den Vorteil, dass das Max-Planck-Institut für Quantenoptik hinter uns steht und in seiner Grundlagenforschung ständig neue, wichtige Erkenntnisse liefert, die schnell Eingang in unserer Entwicklung finden.
Wie steht es um die Finanzierung?
Glätzle: Startups starten mit einem großen Traum und wenig Geld. Wir haben uns um Venture Capital bemüht und mit UVC, Speedinvest und APEX Amadeus drei sehr renommierte europäische Investoren gewonnen. Die Aufträge des DLR kamen zum richtigen Zeitpunkt, um die Entwicklung unserer Technologieplattform weiter zu finanzieren, Einnahmen zu generieren und unsere internen Strukturen und Prozesse weiterzuentwickeln. Wir haben nicht nur den Auftrag zum Bau von Europas erstem digitalen Neutralatom-Quantencomputer erhalten, sondern waren auch in mehreren DLR-Ausschreibungen für Algorithmen-Projekte erfolgreich. Letztlich haben wir bei der Umsetzung mit dem Kunden und seinen Partnern schnell an Reife gewonnen. Wichtig ist der Aufbau tragfähiger Strukturen und Lieferketten: Wir brauchen erstklassige Laser, Optiken und Vakuumtechnologie, die prinzipiell in Deutschland verfügbar sind. Doch müssen wir eng mit Zulieferern kooperieren, damit ihre Komponenten die notwenigen Anforderungen erfüllen.
Axmann: Beim Quantencomputing dürfen wir keine Wunder erwarten. Die Entwicklung dauert länger als eine Legislaturperiode, bindet viel Kapital und braucht immer neue kluge Köpfe. Das macht es für die Startups schwierig. Daher hat uns das BMWK beauftragt, große Aufträge auszuschreiben, die den Teams eine langfristige Perspektive eröffnen. Wir zahlen jeweils, wenn sie vereinbarte Meilensteine erreichen.
Der Erfinder des Lasers, Theodore Harold Maiman, sprach anfangs von einer „Lösung auf der Suche nach einem Problem“. Trifft dieser Befund auf heutige Quantencomputer zu?
Axmann: Die theoretische Basis ist gelegt; es geht darum, darauf durch gutes Engineering marktreife Lösungen aufzubauen. Dabei stehen Fragen wie die Laserstabilität oder die Qualität der Optiken im Zentrum. Anders als in den Anfängen des Lasers denken wir Anwendungen des Quantencomputings aber heute von Beginn an mit. Komplexe Klimamodellierungen, hochflexible Produktionsplanung, die Simulation komplizierter Reaktionen in der Chemie- und Pharmabranche, verbesserte Algorithmen für Suchmaschinen sowie Shor‘s Algorithmus und die Absicherung kryptographischer Systeme – es gibt sehr viele Anwendungsfelder, in denen Quantencomputer mit ihrer Performance große Fortschritte gegenüber klassischen Computern versprechen. Und mehr noch: Es ist mathematisch bewiesen, dass Quantencomputer den herkömmlichen Rechnern teils exponentiell überlegen sind.
Glätzle: Überall wo Quanten vorkommen, etwa bei Simulationen von Molekülen mit ihren natürlichen Quanteneffekten, sind Quantencomputer überlegen. Beispielsweise hat ein einzelnes Koffein-Molekül mehr als 10⁴⁰ mögliche verschiedene Quantenzustände. Um diese Information abzuspeichern, müsste man jedes Atom der Erde als klassisches Bit verwenden. Daher sind Probleme der Quantenchemie und Quantenpharmazeutik mit herkömmlichen Rechnern nicht exakt lösbar. Die Frage, wie genau sich zwei Moleküle miteinander verbinden, bleibt ebenso ungeklärt, wie zahlreiche Herausforderungen der personalisierten Medizin oder der Materialforschung. Hier könnten Quantencomputer echte Mehrwerte schaffen – sobald die Hardware so weit ist. Gestatten Sie mir eine Randbemerkung: Ich denke nicht, dass sich Maiman hat vorstellen können, dass Laser heute an Supermarktkassen oder CD-Playern verbaut werden. Auch wir können heute nicht erahnen, welche Anwendungen für Quantencomputer sich noch auftun werden. Denn wir denken zwangsläufig aus den heutigen Möglichkeiten heraus.
Sehen Sie Quantencomputer in Großrechenzentren mit Zugriff über die Cloud? Oder sind in Zukunft dezentrale Quantencomputer in Satelliten, Flugzeugen, Autos oder Fabriken denkbar?
Axmann: Das lässt sich heute noch nicht sagen, weil unklar ist, wie sich die Technologien entwickelt. Die aufwändige Vakuumtechnik und Kühlung sprechen heute noch gegen den dezentralen Einsatz in Flugzeugen, Schiffen oder Satelliten. Die ersten Systeme sehe ich daher als ergänzende Lösung für sehr hohen Rechenbedarf in der Cloud. Aber das kann sich ändern, weil es auf allen Ebenen Ansätze gibt, die Systeme zu miniaturisieren und sie weniger kompliziert auszulegen. Das wäre zum Beispiel interessant für die Raumfahrt, um die riesigen, von Satelliten generierten Datenvolumen sofort auswerten zu können.
Glätzle: Ich sehe Quantencomputer ebenfalls als leistungsstarke, beschleunigende Co-Prozessoren in Rechenzentren. Daher liegt der Fokus aktuell darauf, Synergien mit herkömmlichen Großrechnern zu untersuchen. Wir sind an entsprechenden Förderprojekten des Bundesministeriums für Bildung und Forschung beteiligt und bauen aktuell einen Quantencomputer für das Leibniz Rechenzentrum, das den Supercomputer SuperMUC NG betreibt. In naher Zukunft werden unsere Quantencomputer in Rechenzentren laufen – und wir selbst werden Kunden aus Wissenschaft und Industrie per Cloud-Zugriff Rechenzeit anbieten können. Satelliten sind perspektivisch ein interessanter Einsatzort für Quantencomputer, um Daten direkt dort zu verarbeiten, wo sie entstehen. Wer hätte es sich vor ein paar Jahrzehnten vorstellen können, dass heute in jedem GPS-Satelliten eine Atomuhr integriert ist? Bis ich das auch über Quantencomputer sagen kann, wird aber noch viel Zeit vergehen.
Wie steht es um die Reife der Hardware? Geht der Bau der DLR-Quantencomputer-Infrastruktur gut voran?
Axmann: Wir haben Anfang Juli die ersten beiden Quantencomputer erfolgreich abgenommen. Für die Unternehmen, die die Hardware entwickeln, ist es beileibe kein Spaziergang. Die Herausforderung rund um die Zahl der Qubits, die Gate-Fidelities, Gatter und Stabilität sowie für die Software sind hoch. Zumal es um den Übergang von experimentellen Laborsystemen zu CE-konformen, wartungsarmen Produkten geht. Ich bin überzeugt, dass viele Unternehmen diesen Weg schaffen werden – aber nicht alle. Mit den steigenden Spezifikationen in den nächsten Ausbaustufen wird mancher Ansatz an seine Grenzen stoßen. Aber genau darum geht es: Unsere Initiative eruiert, welche Technologieplattformen des Quantencomputings tragfähig und skalierbar sind. Das Rennen ist offen, und es ist weltweit in vollem Gang.
Welchen technologischen Ansatz verfolgt planqc beim Bau des Computers – und welche Rolle kommt Lasern und optischen Technologien dabei zu?
Glätzle: IBM oder Google setzen für ihre Quantencomputer auf supraleitende Schaltkreise. Wir nutzen eine andere Technologie, die aus unserer Sicht viele Vorteile hat. Vor allem können wir die Anzahl und Qualität der Qubits damit besser skalieren, was eine der zentralen Voraussetzungen für fehlertolerante Quantencomputer ist. Konkret nutzen wir einzelne neutrale Atome als Qubits, in denen wir Quanten-Informationen speichern und manipulieren können. Die Atome sind von der Natur geschaffen und alle komplett baugleich. Es handelt sich also um ein sehr kohärentes System - und die Kohärenzzeiten der Qubits, in denen Berechnungen möglich sind, reichen bis in den Sekundenbereich. Das entspricht in der Quantenwelt einer Ewigkeit! Die zentrale Komponente unseres Neutral-Atom-Quantencomputers ist eine Ultrahochvakuumkammer, in der die Atome gefangen sind und bei Temperaturen um den absoluten Nullpunkt herum in einen Zustand der Bewegungslosigkeit geraten. Die Kühlung, das Fangen und auch das Manipulieren der Atome – beziehungsweise Qubits – erfolgt per Laser. Um die einzelnen Atome für Berechnungen zu manipulieren und ihren logischen Zustand zu ändern, brauchen wir rauscharme Laser mit einer präzisen Frequenz und Wellenlänge. Nur damit sind Rechenoperation mit hoher Fidelity machbar. Zusätzlich brauchen wir Highend-Optiken, um die im Abstand weniger Mikrometer angeordneten Atome per Laser einzeln fokussieren zu können. Sonst käme es zu unerwünschten Wechselwirkungen mit benachbarten Atomen. Auch optische Schalter sind gefragt, damit wir die Atome nach und nach nanosekundenweise ansteuern können. Unser System arbeitet ohne kryogene Kühlung bei Raumtemperatur und ist damit skalierbarer und energieeffizienter, aber zugleich auch weniger komplex als beispielsweise Systeme auf Basis supraleitender Schaltkreise.
Quantencomputing und Künstliche Intelligenz sind aktuell vor allem im Hype vereint. Gibt es echte Gemeinsamkeiten und sind Visionen eines Quanten-Maschinellen Lernens realistisch?
Axmann: Ja, das Thema verfolgen wir in verschiedenen Projekten. Darunter Mat-QML, ein Teilprojekt unseres Materialforschungsprojekts QuantiCoM; es geht darum, durch Quanten-Maschinelles Lernen die Materialeigenschaften von Legierungen vorherzusagen, etwa die Zugfestigkeit oder die elektrische und thermische Leitfähigkeit. Ein anderes Thema ist das Quantum-Reinforcement-Learning, das wir in unserem Projekt QCI QLearning adressieren. Ansätze gibt es auch in der Klimamodellierung, etwa um Variablen an neue Forschungsbefunde anzupassen. Wir sind gespannt, wie sich unser Umgang mit Daten durch solche „datenverarbeitenden Hochleistungsmotoren“ in Zukunft verändern wird.
Glätzle: Ich finde die Kombination dieser zwei Megatrends sehr spannend. Auch planqc befasst sich in Projekten ausführlich mit dem Potenzial dieser Verbindung für Klimamodelle sowie die Material- und Wirkstoffentwicklung.