Das oben gezeigte 3D-Modell ist natürlich eine vereinfachte Darstellung eines Teilchenbeschleunigers und eines Teilchenstrahls. Echte Beschleuniger sind deutlich größer und haben erheblich mehr Komponenten. Während die Visualisierung nur fünf Magnete zeigt, kann ein realer Beschleuniger Hunderte oder sogar Tausende von Magneten besitzen. Zusammen mit anderen Komponenten ist es keine Seltenheit, dass solche Anlagen Zehntausende, wenn nicht Hunderttausende von Steuerparametern aufweisen. Gleichzeitig ist der geladene Teilchenstrahl in der Realität so klein, dass er mit bloßem Auge unsichtbar ist. Mithilfe dieser enormen Anzahl an Steuerparametern muss der winzige Teilchenstrahl über mehrere Kilometer Strahlrohr auf Genauigkeiten von wenigen Zehn Mikrometern kontrolliert werden. Zum Vergleich: Das entspricht etwa dem Versuch, eine Erbse von Hamburg nach München zu werfen und dabei ein Ziel in der Größe einer weiteren Erbse zu treffen. Hinzu kommt, dass Nutzer von Teilchenbeschleunigern immer anspruchsvollere experimentelle Setups verlangen, die eine noch präzisere Kontrolle des Teilchenstrahls erfordern.
Während heutzutage menschliche Experten_innen jährlich über 2000 Stunden damit verbringen, diese Steuerparameter zu optimieren, werden nun KI- und maschinelle Lernmethoden erforscht, um die Anforderungen neuer Experimente zu ermöglichen, die Abstimmzeiten zu verkürzen und mehr Zeit für die eigentliche wissenschaftliche Forschung zu schaffen.
Ein Ansatz, der bei DESY untersucht wird, ist das sogenannte Reinforcement Learning (verstärkendes Lernen), bei dem die Abstimmung des Beschleunigers als ein Spiel formuliert wird, in dem der KI-Agent dafür belohnt wird, die gewünschten Strahleigenschaften so schnell wie möglich zu erreichen, und bestraft wird, wenn unsichere Betriebszustände erreicht werden. Diese Methode wurde bislang erfolgreich bei einer Abstimmungsaufgabe getestet, die einen Beschleunigerabschnitt mit drei Quadrupolmagneten und zwei Dipolmagneten umfasst – ganz ähnlich wie in der Visualisierung dargestellt. Hier konnte der KI-Agent lernen, die gewünschte Position und den Fokus des Strahls auf dem nachgeschalteten Diagnoseschirm in einem Bruchteil der Zeit zu erreichen, die ein menschlicher Operator benötigen würde. Allerdings benötigt der KI-Agent, ähnlich wie echte menschliche Experten_innen (wahrscheinlich sogar noch mehr), viel Zeit, um überhaupt erst zu lernen, wie der Strahl kontrolliert werden kann. Im genannten Beispiel benötigte der KI-Agent tatsächlich etwa drei Jahre ununterbrochenes Ausprobieren am Beschleuniger, um den Strahl besser zu steuern als menschliche Experten_innen. Diese Zeit steht in einem realen Beschleuniger, wo Strahlzeit eine sehr wertvolle Ressource ist, einfach nicht zur Verfügung. Stattdessen konnte der KI-Agent auf vierzig parallelen Simulationen des Beschleunigers lernen, wobei jede Simulation um fünf Größenordnungen beschleunigt wurde. So war es möglich, dass der KI-Agent in weniger als einer Stunde lernte – und dabei keine Zeit am realen Beschleuniger verbrauchte.