Was generative Sprach-KIs leisten können, ist erstaunlich – obwohl mich ihre Fähigkeiten stark an einen sprechenden Papagei erinnern, der ebenfalls nicht wirklich weiß, was er wiederholt. Trotz scheinbarer sprachlicher Kompetenz erfasst der Papagei nie die vielschichtige Bedeutung menschlicher Sprache und Erfahrung. Für viele einfache Anwendungen, wie etwa Marketingaufgaben, reichen die statistischen Mimikry-Fähigkeiten des KI-Papageis vollkommen aus. Wenn die Aufgaben und damit die Anforderungen an generative Sprach-KIs jedoch komplexer werden, sieht die Sache anders aus. Soweit ich weiß, lassen sich ohne echtes Sprachverständnis und echtes Denkvermögen keine komplexen Aufgaben bewältigen. Das gilt für Menschen wie für KIs. In der Hoffnung, diese Defizite irgendwie auszugleichen, liefern sich KI-Forscher und -Ingenieure auf der ganzen Welt inzwischen ein rasendes „Winner-takes-all“-Rennen um die Entwicklung immer größerer und ausgefeilterer KI-Sprachmodelle.
...ohne echtes Sprachverständnis und echtes Denkvermögen können keine komplexen Aufgaben bewältigt werden!
Was uns die Natur über Intelligent Design lehrt
Ob die Größe des Modells und die Feinabstimmung das Argumentationsdefizit aktueller Sprachmodelle (LLM, Large Language Model) beheben werden, bleibt fraglich. Ich bezweifle diese Strategie ernsthaft. Nicht weil ich ein promovierter KI-Experte bin, sondern weil ich mich nur umsehen muss, um unmittelbar ein Gespür dafür zu bekommen, wie die Natur leistungsfähige Systeme baut. Statt eines großen, schwerfälligen Systems verwendet sie im Allgemeinen viele kleine Einheiten, die zusammenarbeiten, um komplexe Aufgaben zu lösen. Denken Sie an eine einzelne Zelle in Ihrem Körper, die nur kleine Aufgaben wie die Aufnahme von Nährstoffen oder die Regulierung des pH-Werts erfüllen kann. Wenn diese Zelle jedoch mit vielen anderen Zellen zusammenarbeitet und Teil eines Organs wie der Leber wird, kann dieses Organ viel kompliziertere Aufgaben bewältigen, wie die Entgiftung des Körpers oder die Speicherung von Energie. Dies verdeutlicht das Prinzip der Emergenz: Wenn viele einfache Einheiten zusammenarbeiten, entstehen plötzlich neue Fähigkeiten und Eigenschaften, die die einzelnen Einheiten allein nicht besitzen.
Auch Kognition organisiert und skaliert auf diese Weise (Michael Levin, 2019, Scale-Free Cognition). Ein weiteres Merkmal solcher natürlicher Systeme ist, dass sie nicht nur leistungsstark, sondern auch äußerst energie- und ressourceneffizient sind – sowohl im Aufbau als auch im Betrieb! Wären sie das nicht, würde die Evolution sie schnell eliminieren.
Zugegeben, die KI-Forschung hat schon viel von der Natur gelernt. Künstliche neuronale Netze etwa haben den technologischen Durchbruch gebracht und die erstaunlichen Fähigkeiten heutiger LLMs erst möglich gemacht. Statt jedoch immer größere LLMs zu bauen – was dem Aufblasen einer einzelnen Zelle auf die Größe eines Organs gleichkäme – empfehle ich eine elegantere Strategie: die Bündelung kleiner kognitiver Subsysteme, die wir Agenten nennen, zu immer größeren und leistungsfähigeren kognitiven Systemen, den sogenannten Multi-Agenten-Systemen (MAS).
Im Folgenden möchte ich auf drei entscheidende Aspekte für funktionsfähige Multi-Agenten-Systeme näher eingehen:
Die Konfiguration/Architektur eines MAS
Die Organisation von Wissen/Expertise in einem MAS
Die Organisation der Kommunikation in einem MAS
Klein, aber oho: Multi-Agenten-Systeme
Wie der Name schon sagt, besteht ein Multi-Agenten-System aus verschiedenen Agenten mit unterschiedlichen Aufgaben, Kenntnissen und Werkzeugen, die zusammenarbeiten können, um komplexe Aufgaben zu bewältigen. Stellen Sie sich beispielsweise ein MAS vor, das mir im Rahmen von Geschäftsverhandlungen mit englischem Vokabular hilft. Ein Agent führt das Gespräch, ein anderer analysiert meinen Fortschritt, ein dritter gibt Empfehlungen, ein weiterer vergleicht meine Antworten mit einer Expertendatenbank und vielleicht noch ein weiterer überwacht und orchestriert den gesamten Prozess. Kurz gesagt: In einem MAS arbeitet ein ganzes Team von Experten unsichtbar zusammen, um die beste Lösung für mich zu finden. Jeder, der schon einmal mit fortgeschrittenem Prompt Engineering gearbeitet hat, weiß, wie schwierig es wäre, diese Aufgabe mit einem einzigen Prompt zu lösen, im Fachjargon „One-Shot“ genannt.
Die Vorteile eines Multi-Agenten-Systems (MAS) gegenüber einem Single-Agenten-System liegen auf der Hand:
Reduzierung der Komplexität und Spezialisierung: Die Arbeit wird in kleinere, spezialisierte Aufgaben aufgeteilt, was die Komplexität des Systems reduziert.
Steigerung der Lösungsintelligenz und Emergenzeffekte: Durch die Zusammenarbeit mehrerer Akteure entstehen neue, intelligente Lösungen.
Zuverlässigkeit und Präzision: Mehrere Agenten können dieselbe Aufgabe ausführen, was die Zuverlässigkeit und Genauigkeit erhöht.
Skalierbarkeit und Erweiterbarkeit: MAS kann durch Hinzufügen neuer Agenten einfach erweitert werden, ohne das gesamte System zu ändern.
Flexibilität und Anpassungsfähigkeit: MAS kann flexibel auf sich ändernde Anforderungen oder Umgebungen reagieren, da Agenten unabhängig arbeiten und sich anpassen.
Fehlertoleranz und Redundanz: Durch die Verteilung der Aufgaben auf mehrere Agenten kann das System besser mit Fehlern umgehen. Fällt ein Agent aus, übernehmen andere seine Aufgaben.
Parallele Verarbeitung und Geschwindigkeit: MAS kann Aufgaben parallel verarbeiten, was die Verarbeitungsgeschwindigkeit erhöht.
Spezialisierung und Fachwissen: Jeder Agent kann auf eine bestimmte Aufgabe spezialisieren, was die Effizienz und Qualität der Prozesse verbessert.
Autonomie und Entscheidungsfindung: Agenten können autonom Entscheidungen treffen und Aktionen ausführen, wodurch die Notwendigkeit einer ständigen menschlichen Überwachung reduziert wird.
Interdisziplinarität und Wissenstransfer: MAS ermöglichen die Integration von Wissen und Fähigkeiten verschiedener Disziplinen, was zu umfassenderen und fundierteren Lösungen führt.
Die „richtige“ Architektur für Multi-Agenten-Systeme
Die Architektur eines Multi-Agenten-Systems richtet sich nach der gewünschten Funktionalität. Eine flache Architektur eignet sich eher für Brainstorming- und Kreativprozesse, während eine vertikale Hierarchie in der Regel besser für schnelle Entscheidungsprozesse geeignet ist (siehe Abbildung 1). Es gibt bereits zahlreiche interessante Studien zur Architektur solcher Systeme und ihren Vor- und Nachteilen.
Die Frage, ob eine flache, horizontale Hierarchie, in der die Agenten auf Augenhöhe „kommunizieren“, oder eine vertikale Hierarchie mit klar definierten Ebenen besser ist, lässt sich nicht allgemeingültig beantworten.
Organisationsentwickler verstehen das Konzept einer Multi-Agenten-Architektur wahrscheinlich schneller und finden funktionale Lösungen als andere Experten. Im Wesentlichen geht es dabei um die Nachbildung einer Organisationsstruktur bis auf die Ebene einzelner Teams.
Wie Expertise in MAS organisiert ist
Nach der Wahl der Architektur stellt sich als nächstes die Frage, wie das Team zusammengesetzt werden soll, um Aufgaben in einem bestimmten Kontext zu lösen und definierte Ziele zu erreichen. Ein bewährter Ansatz wäre, das Team mit unterschiedlichen Agenten mit jeweils passender Expertise zu besetzen und sich bei der Auswahl auf die Inhalte zu konzentrieren. Im Prompt Engineering für KIs geschieht dies unter anderem durch die Vergabe von Rollen: „Sei Experte für XY und hilf mir, Aufgabe Z zu lösen!“ An dieser Stelle kommen auch spezialisierte Wissensdatenbanken, sogenannte RAGs (Retrieval-Augmented Generation), ins Spiel. Diese erweitern die Expertise der Agenten und machen die Ergebnisse zuverlässiger.
„Ein Sprachmodell wie GPT-4 kann per Definition immer nur eine Rolle gleichzeitig übernehmen und verarbeiten“
Auf RAGs werde ich in einem anderen Artikel noch genauer eingehen. Diese inhaltlich-funktionalen Rollenzuweisungen funktionieren in Multi-Agenten-Systemen gut. In Single-Agenten-Systemen hat dieser Ansatz allerdings erhebliche Einschränkungen. Ein Sprachmodell wie GPT-4 kann per Definition immer nur eine Rolle gleichzeitig annehmen und verarbeiten.
Stellen Sie sich vor, Sie haben eine Person, die in einem Restaurant gleichzeitig Koch, Kellner und Kassierer sein soll. Diese Person muss ständig zwischen den Aufgaben wechseln, wodurch sie leicht Fehler machen oder den Überblick verlieren kann. In einem Multi-Agenten-System haben Sie jedoch für jede Aufgabe eine spezialisierte Person: einen Koch, einen Kellner und einen Kassierer. Jeder kann sich auf seine Aufgabe konzentrieren und der Restaurantbetrieb läuft viel reibungsloser.
Zurück zu unserem Multi-Agenten-Team. Angenommen, wir haben es erfolgreich mit den richtigen Rollen besetzt und sind startklar. Wir drücken eifrig die Enter-Taste und stellen bald fest, dass unsere Agenten trotz klar definierter Hierarchie und geballter Expertise (Rollenzuweisungen, Wissensdatenbanken, Tools etc.) kaum brauchbare Ergebnisse produzieren. Sie verfallen entweder in den Austausch von Höflichkeiten (die meisten Modelle sind leider von Ingenieuren darauf konditioniert worden, nett und hilfsbereit zu sein) oder bleiben in endlosen Iterationen stecken, ohne zu einem brauchbaren Ergebnis zu gelangen. Was läuft da schief?
Die Dysfunktionalität des Teams liegt nicht in der Expertise der Teammitglieder (Rolle/Inhalt)
Um der Ursache besser auf die Spur zu kommen, denken wir kurz an ein Team brillanter Experten. Dieses zuvor leistungsstarke Team wird nach einer Umstrukturierung in eine neue Linienführung mit einem neuen Chef integriert. Kurz darauf stellt das Management fest, dass die Einheit völlig dysfunktional geworden ist. Die Schuld für dieses Versagen wird schnell der neuen Linienführung und/oder dem Chef zugeschoben. Die Dysfunktionalität des Teams liegt nicht in der Expertise der Teammitglieder (Inhalt), sondern vielmehr in der Organisationsarchitektur und der Art und Weise (Form), wie sie in der neuen Konfiguration interagieren und kommunizieren. Aber warum scheitert dies und wie können wir diese Analyse gestalten, ohne unnütze Verallgemeinerungen wie „schlechter Führungsstil“ zu verwenden?
Form-Kommunikation im MAS: Der Schlüssel zum Erfolg
Damit kommen wir zum Thema „Form“ – genauer gesagt zur sogenannten Kommunikationsform, wie sie in der Arbeit der Peyns zum systemischen realen Konstruktivismus beschrieben wird. Ich bitte um etwas Geduld, da ich kurz aus dem Bereich der KI heraustrete, um Ihnen in kürzester Zeit die Grundprinzipien von Kommunikation und Form vorzustellen. Ich verspreche Ihnen, dass die besprochenen Prinzipien dann direkt auf Multi-Agenten-Systeme angewendet werden können.
Inhalt vs. Form
Anders als bei der inhaltlichen Betrachtung, wie etwa dem Fachwissen einzelner Agenten/Mitarbeiter, geht es beim Konzept der Kommunikationsform darum, wie Kommunikation innerhalb eines Systems organisiert ist und kontinuierlich auf sich selbst verweist – genauer gesagt, auf vorheriger Kommunikation aufbaut. Es entsteht ein ganzheitlicher Überblick über ein Kommunikationssystem, welche Muster sich darin bilden und welche Eigenschaften und Funktionen diese Muster aufweisen. Bildlich gesprochen gleicht diese systemische Vogelperspektive einer vorgespulten Wetteranimation. Man erkennt plötzlich wiederkehrende Muster und saisonale Wetterphänomene.
Im Gegensatz zur Ansicht der aktuellen Wetterkarte, die Ihnen „nur“ den aktuellen Systemzustand zeigt, gewinnen Sie aus einer Animation deutlich mehr Informationen. Sie verstehen, wie sich das Wettersystem „organisiert“ und wie diese selbstreferenzielle Organisation bestimmte Muster bildet. Diese breite Vogelperspektive lässt sich auch auf Kommunikationssysteme mit großem Erkenntnisgewinn anwenden.
Kadok plant die Zukunft – Ein „Was wäre wenn“-Spiel
Stellen Sie sich also vor, Sie steigen mit mir kurz zu einer geostationären Position in 36.000 Kilometer Höhe auf, um ein Kommunikationssystem aus der Perspektive eines Wettersatelliten zu betrachten. Unter uns sehen wir das fiktive Unternehmen Kadok und die Abteilung Strategic Foresight. Die Aufgabe dieser Abteilung besteht darin, aus verfügbaren Signalen und erkennbaren Markttrends verschiedene Zukunftsstrategien abzuleiten. Ziel ist es, in einer Zeit erheblicher technologischer Umbrüche rechtzeitig erfolgreiche Strategien zu entwickeln. Das interdisziplinäre Team besteht aus fünf gehorsamen Experten und der Teamleiterin Elisabeth, die für ihren klaren und durchsetzungsstarken Führungsstil gleichermaßen geliebt und gefürchtet wird. Kurz gesagt, der Einfachheit halber haben wir es hier mit einer Einheit zu tun, die Befehle erteilt – dargestellt durch die algebraische Notation {!,M,V} – und einer Einheit, die diese ausführt, {V,M,!}.
Die geschweiften Klammern, z. B. {V,M,!}, stellen übrigens die algebraische Notation von Kommunikationsformen nach Ralf und Gitta Peyn dar. Der systemische reale Konstruktivismus in der Peynschen Tradition erlaubt es mir, dieses Kommunikationssystem, bestehend aus den Formen {!,M,V}{V,M,!}, als animierte Wetterkarte in einem „Was wäre wenn“-Spiel nachzubilden. Dies basiert auf einem von Neumannschen Zellularautomaten (siehe Glossar) und insgesamt 6 grundlegenden Kommunikationsformen. Diese basieren auf einer mehrwertigen, universellen Logik kybernetischen Wissens. Für den Moment genügt es zu wissen, dass dieses Konzept auf den Schultern von wissenschaftlichen Giganten wie von Neumann, Gödel, Luhmann, Brown, Wolfram, Turing usw. steht.
Die Emulation (Abbildung 2) des Kommunikationssystems zeigt uns folgendes Muster:
Die Visualisierung dieses Kommunikationssystems zeigt eine starke Monotonie. Hier wird nichts hinterfragt, sondern streng nach klaren Anweisungen gearbeitet. Elisabeth sagt, was zu tun ist, und das Team versteht und führt ihre Anweisungen aus. Das Team erwartet von Elisabeth klare Anweisungen, damit weitergearbeitet werden kann. In Bezug auf die Geschwindigkeit ist dieses System funktional. Diese „geradlinige“ Geschwindigkeit kann jedoch auf Kosten differenzierter Ergebnisse gehen. Für das Ziel der Strategieentwicklung ist dieses Kommunikationssystem insgesamt dysfunktional.
Versuchen wir, die Konfiguration des Systems zu erweitern und mehr Möglichkeiten für Diskurs einzuführen. Wir fügen eine zusätzliche Kommunikationsform hinzu, {M,V,!}, in Form eines Kritikers, nennen wir ihn Paul. Paul sagt immer wieder „Ja, aber!“ und bringt Unterbrechungen in die Monotonie (siehe Abbildung 3). Insgesamt ist das System etwas funktionaler geworden. Immerhin wird nun diskutiert, auch wenn dabei kaum neue Erkenntnisse entstehen.
Wir machen einen letzten Versuch und fügen eine weitere Kommunikationsform hinzu, {!,V,M}, nennen wir sie Sarah. Eine Besonderheit dieser Form ist, dass sie viel und ungefiltert kommuniziert. Abbildung 4 zeigt, dass wir unser monotones Kommunikations- und Entscheidungssystem in eines umwandeln konnten, in dem Silo-Kreativität der vorherrschende Systemzustand ist. Es sind klare „Leitlinien“ zu erkennen, innerhalb derer das Team Lösungen diskutiert und neue Ansätze entwickelt. Die Kommunikations- und Entscheidungsarchitektur der Abteilung Strategic Foresight ist nun, durch das gesetzte Ziel, endlich funktionsfähig. Die vollständige algebraische „Formel“ für dieses System lautet: {!,M,V}{V,M,!}{M,V,!}{!,V,M}.
Auch wenn Ihnen die Berechnung von Systemzuständen noch kompliziert erscheint, erkennen Sie vielleicht schon den immensen Wert dieser Methode. Am Reißbrett kann ich die ideale Architektur eines Kommunikations- und Entscheidungssystems entwerfen und emulieren, ob es für meine Zwecke funktionsfähig ist. Dies gilt sowohl für reale als auch für virtuelle Teams, wie etwa die Abteilung Strategic Foresight oder ein KI-basiertes Multi-Agenten-System (MAS). Für ein MAS erstelle ich einfach virtuelle Agenten mit den entsprechenden Kommunikationsformen, statte sie mit einer Mission (Prompt) und entsprechendem Wissen (RAG) aus und schon kann es losgehen. Aus dem MAS wird ein RMAS, ein Real Constructivist Multi-Agent System.
Wenn Sie Kommunikations- und Entscheidungssysteme professionell gestalten, sei es in der Organisationsentwicklung oder im Bereich der KI, stellt die skizzierte Methode einen Quantensprung in puncto Präzision, Qualität und Kosteneffizienz dar.
Von instabilen Einzelagenten zu leistungsstarken RMAS: Ein praktisches Beispiel. Kommen wir zur Praxis.
In Abbildung 4 habe ich die Architektur eines RMAS für einen Dienstleister im Bereich der Kreislaufwirtschaft skizziert. Ziel dieses RMAS ist es, KMU bei der Analyse ihrer linearen Geschäftsmodelle zu unterstützen und mithilfe von KI und Wissensdatenbanken maßgeschneiderte Lösungen für Kreislaufmodelle zu entwickeln. Das RMAS soll dabei nicht menschliche Experten ersetzen, sondern als niedrigschwelliger 24/7-Touchpoint dienen, um Erstanfragen zu beantworten und qualifizierte Leads für die Beratung durch menschliche Experten zu generieren. Die in der Abbildung dargestellte RMAS-Architektur umfasst unter anderem die folgenden Agenten, die durch die sechs oben genannten Kommunikationsformen präzise organisiert und orchestriert werden:
Dialogagent
Analyse-Agent
Sentiment-Agent
Geschäftsmodellierungsagent
Zielagent
Planungsagent
Leitender Agent
Forschungsagenten
Werkzeugagenten
usw.
Die Agenten werden in Untergruppen mit unterschiedlichen Topologien organisiert. Die kommunikative Interaktion der Untergruppen sowie des gesamten Systems kann – wie bereits gezeigt – emuliert und getestet werden (siehe Abbildung 6). Dies ist ein entscheidender Vorteil gegenüber bisherigen Methoden und dem oft stundenlangen Optimieren von zunehmend instabilen Eingabeaufforderungen.
Ob dieses RMAS nun neue Circular-Economy-Modelle oder Kuchenrezepte mit dem Nutzer entwickelt, ist dabei egal. Wichtig ist, dass ich als Architekt mit minimalem Entwicklungsaufwand ein funktionsfähiges System mit echten konstruktivistischen Formen zusammenstellen, testen und einsetzen kann – unabhängig vom Inhalt. Erste Versuche mit Kunden zeigen äußerst vielversprechende Ergebnisse. Im Fall des RMAS im Circular-Economy-Bereich stellt es eine funktionsfähige Brainstorming-Umgebung für KMUs bereit, dargestellt durch die wiederkehrenden grünen Dreiecke. Es sind jedoch noch weitere Forschungen und Tests nötig.
RMAS ermöglicht es uns möglicherweise auch, ein Stück Autonomie gegenüber den großen KI-Entwicklern zurückzugewinnen …
Wir stehen erst am Anfang des Verständnisses, wie sich Kommunikationssysteme funktional organisieren lassen. Ich bin sehr gespannt, wohin die Entwicklung großer Sprachmodelle in den nächsten Monaten gehen wird. Klar scheint, dass wir an MAS bzw. RMAS kaum vorbeikommen werden – schon allein aus Kosten- und Effizienzgründen. Möglicherweise ermöglicht uns RMAS auch, ein Stück Autonomie gegenüber den großen KI-Entwicklern zurückzugewinnen. Mit RMAS lassen sich auch kleinere Open-Source-LLMs zu leistungsfähigen und effizienten Systemen ausbauen. Mehr Informationen und Benchmarks zu diesem Thema finden sich in diesem spannenden Artikel von Andrew Ng (2024), Agentic Design Patterns .
KI-Agenten lösen komplexe Geschäftsprobleme und helfen bei der Skalierung von Prozessen
Autonome Touchpoints rund um die Uhr: RMAS kann ohne menschliches Eingreifen kontinuierlich für Kunden- und Mitarbeiterinteraktionen verwendet werden.
Experten- und Copilot-Systeme: Unterstützung bei der Bewältigung komplexer Aufgaben durch spezialisierte Agenten, die Fachwissen und Empfehlungen anbieten.
Dialogue Bots: Einsatz von RMAS zur Generierung qualifizierter Leads und Verbesserung der Kundenkommunikation.
Prozessautomatisierung: Automatisierung wiederkehrender und komplexer Prozesse, die manuelle Eingriffe erfordern.
Kreativ- und Innovationsprozesse: Förderung kreativer Ideen und Innovationen durch strukturierte Brainstorming- und Denkprozesse.
Risikomanagement: Proaktive Identifizierung und Minimierung von Risiken durch kontinuierliche Überwachung und Analyse.
Bildungs- und Ausbildungssysteme: Erstellung adaptiver Lern- und Ausbildungsprogramme, die auf die Bedürfnisse der Lernenden zugeschnitten sind.
Produktentwicklung: Unterstützung bei der Entwicklung neuer Produkte durch koordinierte Zusammenarbeit und effiziente Ressourcennutzung.
Forschung und Entwicklung: Beschleunigung von Forschungsprozessen durch strukturierte Datenanalyse und Wissensmanagement.
Mit RMAS lassen sich auch kleinere Open-Source-LLMs zu leistungsfähigen und effizienten Systemen ausbauen
Fazit: Die Zukunft von KI-Systemen mit echten Vorteilen liegt in RMAS
Die Natur zeigt uns eindrucksvoll, wie einfache Systeme in Kombination intelligenter werden und anspruchsvollere Aufgaben lösen. Die Grundlagenforschung der Peyns ist für mich vergleichbar mit dem „Stein der Weisen“, einer mythischen Substanz, von der die alten Alchemisten behaupteten, sie könne im Kopf der Leichtgläubigen Blei in Gold verwandeln. Anders als die Alchemie bietet der systemische Realkonstruktivismus jedoch eine moderne, empirische Grundlage, um leistungsstarke RMAS für eine Vielzahl von Aufgaben und Herausforderungen zu schaffen – ohne Taschenspielertricks, esoterische Aufforderungen und immer größere Modelle mit immer höherem Energiebedarf. Sind Sie bereit, Ihr Unternehmen oder Ihre Institution auf die nächste Stufe der KI-Entwicklung zu heben? Entdecken Sie die Möglichkeiten, die RMAS bieten, und wie sie Ihre Innovationsfähigkeiten optimieren, skalieren und verbessern können. Kontaktieren Sie mich für eine kostenlose Beratung und erfahren Sie, wie KI-Agenten komplexe Geschäftsprobleme lösen können.
Patrick Castellani, 2024
Weiterführende Literatur und Publikationen
Masterman, Sawtell, Besen, Chao (2024), Die Landschaft der aufkommenden KI-Agentenarchitekturen für Argumentation, Planung und Tool-Aufruf: Eine Umfrage
Andrew Ng (2024), Agentische Entwurfsmuster
Penrose (2016), Des Kaisers neues Denken , Oxford Landmark Science
Hameroff, Penrose (2013), Bewusstsein im Universum – Eine Überprüfung der „Orch OR“-Theorie
Ralf Peyn (2024), FORMcalculus , Formwelt Media
Ralf Peyn (2017), uFORM iFORM , Ralf Peyn, Carl Auer Verlag
Gitta & Ralf Peyn (2024), Realkonstruktivismus , Formwelt Media, Buchauszug: https://formwelt.io/media/
Michael Levin (2019), Die rechnerische Grenze eines „Selbst“: Entwicklungsbioelektrizität fördert Mehrzelligkeit und skalenfreie Kognition , Harvard University
Glossar
Künstliche Intelligenz (KI): Ein Bereich der Informatik, der sich auf die Entwicklung von Systemen und Maschinen konzentriert, die die menschliche Intelligenz nachahmen. KI umfasst Technologien wie maschinelles Lernen, neuronale Netzwerke und Algorithmen, die Aufgaben wie Spracherkennung, Bilderkennung und Entscheidungsfindung ausführen können.
Large Language Model (LLM): Ein KI-Modell, das anhand großer Textmengen trainiert wurde, um menschliche Sprache zu verstehen und zu generieren. Beispiele für LLMs sind GPT-3 und GPT-4. Diese Modelle verwenden umfangreiche Daten und komplexe Algorithmen, um kontextbezogen relevante und aussagekräftige Antworten bereitzustellen.
Single-Agent: Ein System oder eine Anwendung, bei der nur ein einziger Agent (Programm oder Roboter) arbeitet. Der einzelne Agent funktioniert unabhängig und interagiert nicht mit anderen Agenten. Solche Systeme sind einfacher zu implementieren, verfügen jedoch im Vergleich zu Multi-Agenten-Systemen über eingeschränkte Möglichkeiten.
Multi-Agent: Ein System, in dem mehrere Agenten interagieren und zusammenarbeiten, um komplexe Aufgaben zu lösen. Jeder Agent verfügt über spezielle Fähigkeiten und Rollen. Multi-Agent-Systeme bieten durch die Zusammenarbeit der Agenten höhere Flexibilität, Skalierbarkeit und Problemlösungskapazität.
One-Shot: Im Kontext von Prompting bezeichnet „One-Shot“ eine Technik, bei der einem KI-Modell nur ein einziges Beispiel oder eine einzige Aufforderung zur Erledigung einer Aufgabe gegeben wird. Dies steht im Gegensatz zu „Few-Shot“- oder „Zero-Shot“-Techniken, bei denen entweder mehrere Beispiele oder keine spezifischen Beispiele gegeben werden.
Prompting: Die Technik, einem KI-Modell bestimmte Eingaben (Prompts) bereitzustellen, um bestimmte Ausgaben zu generieren. Prompts können Fragen, Anweisungen oder Hinweise sein, die das Verhalten des Modells steuern. Prompting wird häufig verwendet, um die Leistung und Genauigkeit von LLMs zu verbessern.
Integrierte skalenfreie Kognition: Ein Konzept der Kognitionswissenschaft, das beschreibt, wie biologische Systeme durch die Zusammenarbeit vieler kleiner, spezialisierter Einheiten intelligentes und zielgerichtetes Verhalten zeigen. „Skalenfrei“ bedeutet, dass diese Systeme ähnliche Muster und Prinzipien der Selbstorganisation und Problemlösung auf verschiedenen Organisationsebenen zeigen, von Zellen bis hin zu ganzen Organismen. Integrierte skalenfreie Kognition betont, dass die Intelligenz eines Systems nicht auf einer einzigen Ebene entsteht, sondern durch die Interaktionen und Netzwerke vieler Komponenten, die zusammenarbeiten, um komplexe Aufgaben zu bewältigen.
Systemischer Realkonstruktivismus: Ein theoretischer Ansatz, der die Realität als Ergebnis konstruktiver Prozesse innerhalb von Systemen betrachtet. Diese Theorie betont, dass Wissen und Realität durch die Interaktionen und Strukturen eines Systems erzeugt und aufrechterhalten werden. Im Kontext der KI bezieht sich dies darauf, wie Systeme Wissen konstruieren und anwenden.
Zelluläre Automaten: Mathematische Modelle für komplexe Systeme, die aus einem Raster von Zellen bestehen, deren Zustand sich jeweils nach festgelegten Regeln ändert. Zelluläre Automaten können zur Simulation natürlicher Phänomene wie Wachstum, Musterbildung und Selbstorganisation verwendet werden.
Kybernetik: Die Wissenschaft der Steuerung und Regulierung in Systemen, sei es in Maschinen, biologischen Organismen oder sozialen Strukturen. Die Kybernetik untersucht, wie Systeme Informationen verarbeiten, Entscheidungen treffen und sich an veränderte Umgebungen anpassen. Sie bildet die Grundlage für viele Bereiche der Informatik und Systemtheorie.
Emergenz: Das Phänomen, bei dem in einem System aus den Interaktionen seiner einfachen Komponenten komplexe Muster oder Eigenschaften entstehen. Emergenz tritt auf, wenn das gesamte System Fähigkeiten oder Verhaltensweisen aufweist, die nicht direkt aus den Eigenschaften einzelner Komponenten abgeleitet werden können.
Bewusstsein: Ein Zustand des menschlichen Geistes, der das Erleben und Wahrnehmen von Gedanken, Gefühlen und Umgebungen umfasst. In der KI ist Bewusstsein ein umstrittenes und bislang unerreichtes Ziel, da es über die bloße Datenverarbeitung hinausgeht und Selbstbewusstsein und subjektive Erfahrung erfordert.
Comentários