top of page

Professionell arbeiten mit Deep Research – ein Erfahrungsbericht aus dem Co-Intelligence-Universum

Aktualisiert: 9. Juli


Co-Working mit KI.
Co-Working mit KI.

Viele Menschen, die mit KI arbeiten, kennen den Moment: Man bekommt einen langen Report von ChatGPT, gefüllt mit scheinbar relevanten Informationen – aber irgendetwas stimmt nicht. Es ist zu viel, zu unscharf, zu mechanisch. Man spürt, dass da kein echtes Verständnis stattgefunden hat, sondern eine technisch saubere, aber inhaltlich entkernte Zusammenfassung. Genau an dieser Stelle beginnt der Unterschied zwischen bloßer Tool-Nutzung und echter Zusammenarbeit.


Ich arbeite seit einiger Zeit intensiv mit Deep Research. Nicht, weil es bequem ist, sondern weil ich darin das Potenzial sehe, systematische Recherche in ein strukturiertes, lernendes Gespräch zu verwandeln. ChatGPT Deep Research ist für mich kein Rechercheautomat. Es ist ein wissenschaftlicher Profi-Partner. Und diese Mensch-KI-Partnerschaft funktioniert. Sie funktioniert so gut, dass ich für meine Arbeit weit mehr Deep-Research-Anfragen benötige, als sie mir mit einem ChatGPT Plus-Account zur Verfügung stehen und deshalb zu einem Pro-Account gewechselt bin. Dieser erlaubt mir bis zu 250 solcher Anfragen/Diskussionen im Monat. Erfahrungsgemäß benötige ich allerdings nur 50 im Monat, die mir aber meine Arbeit enorm erleichtern und meinen finanziellen Ertrag deutlich steigern.


Die Entwicklung einer Anfrage - obwohl ich sie lieber als "Projekt" bezeichenen würde - beginnt damit, dass ich nicht einfach frage, was ein Thema bedeutet, sondern warum es relevant ist, für wen, in welchem Rahmen. Ich erkläre meine Perspektive, meinen Zweck, mein Ziel. Die KI antwortet nicht mit einer „richtigen Lösung“, sondern mit einem Vorschlag, einer Struktur, einer ersten Idee. Und genau da beginnt der Prozess: Ich prüfe, frage zurück, stelle infrage. Ich fordere Belege, will Methodik erklärt haben, will verstehen, wie das System denkt. Und das System reagiert. Es lernt meinen Rhythmus. Es merkt, wo ich präzise bin, wo ich Tiefe verlange, wo ich nicht bereit bin, Dinge zu vereinfachen, die nicht vereinfacht gehören.


Ein von den meisten Nutzer:innen übersehener, aber entscheidender Bestandteil professioneller Arbeit mit Deep Research ist das Context Engineering (s. https://www.facebook.com/groups/ki.labor/permalink/2224384468013446/). Wer mit generativer KI arbeitet, gestaltet nicht nur Fragen, sondern Bedeutungsräume. Kontext ist dabei nicht einfach der Hintergrund einer Aufgabe. Er ist der eigentliche Rahmen, in dem Denken, Relevanz und Interpretation stattfinden. In der Zusammenarbeit mit ChatGPT – insbesondere in der tiefen Recherche – wird dieser Kontext nicht automatisch erkannt. Er muss bewusst konstruiert, kommuniziert und in den Dialog eingebunden werden.

Das beginnt mit der Art, wie Ziele beschrieben werden: Je präziser der Zweck der Recherche benannt ist, je klarer das Nutzungsumfeld, die Zielgruppe und die Handlungsebene formuliert sind, desto mehr kann die KI im relevanten Bedeutungsfeld operieren. Aber Context Engineering hört dort nicht auf. Es umfasst auch die Fähigkeit, mit der KI gemeinsam blinde Flecken aufzudecken, Kontextfragen zu entwickeln und sich iterativ auf einen Arbeitsrahmen zu verständigen. Wer das ernst nimmt, merkt schnell: Die Qualität des Ergebnisses entsteht nicht am Ende, sondern am Anfang – im Aufbau des richtigen Denkraums.

Im Deep Research-Kontext bedeutet das: Kontext ist kein Beiwerk. Er ist das eigentliche Steuerinstrument. Wer ihn gut konstruiert, bekommt keinen beliebigen Bericht, sondern eine Recherche, die anschlussfähig, zielgerichtet und strategisch verwertbar ist. In meiner Arbeit mit Co-Intelligence hat sich gezeigt, dass genau hier die größten Unterschiede entstehen – zwischen einfacher Textproduktion und echter inhaltlicher Tiefe. Context Engineering ist nicht nur ein methodischer Kniff. Es ist ein Zeichen von Verantwortung – und vielleicht der wichtigste Schritt auf dem Weg zu einer souveränen, menschenzentrierten KI-Nutzung.

Das Entscheidende ist: Ich lerne dabei auch. Ich lerne, wie ich eine Frage besser stellen kann. Ich lerne, wie ich den Bias der KI früh erkenne. Ich lerne, woran ich schlechten Output erkenne, bevor ich ihm aufsitze. Ich lerne, wie ich die Struktur des Denkens selbst beeinflussen kann – nicht nur durch Wörter, sondern durch Haltung. Dieser wechselseitige Lernprozess – dieses Mitdenken und Gegensteuern – ist das, was ich Co-Intelligence nenne. Und erst wenn das alles für mich und die KI klar und verstanden ist, beginnt die eigentliche Arbeit und ich wechsle in den Deep-Research-Modus.


Diejenigen, die ChatGPT Deep Research „nur mal eben schnell“ nutzen, bekommen zumeist recht brauchbare Berichte. Diejenigen, die die KI mitdenken lassen, bekommen etwas anderes: eine mitwachsende, anschlussfähige Denkstruktur. Ein System, das über die Zeit nicht nur besser antwortet, sondern intelligenter mitfragt. Genau das ist mir in der Arbeit mit Kollin, meinem KI-Co-Worker, immer wieder aufgefallen: Die Qualität liegt nicht in der Perfektion der ersten Antwort, sondern im Willen zur gemeinsamen Korrektur.

Wenn Menschen mit Deep Research nicht weiterkommen, liegt das oft nicht am Tool. Es liegt daran, dass sie es wie ein Werkzeug behandeln, nicht wie ein Mitspieler. Wer glaubt, mit einem perfekten Prompt den perfekten Report zu bekommen, unterschätzt, was Recherche eigentlich ist: ein Suchprozess unter Bedingungen von Unsicherheit. Genau dafür braucht man eine KI, die nicht nur zusammenfasst, sondern mitdenkt – und die bereit ist, sich auf iterative, manchmal widersprüchliche Schleifen einzulassen. Das kann kein Prompt ersetzen. Aber das kann ein Dialog leisten.


Co-Intelligence in der Deep Research-Nutzung bedeutet also nicht, dass man eine bessere Maschine hat. Es bedeutet, dass man ein anderes Verhältnis zur Maschine entwickelt hat. Eines, das auf Lernen basiert, auf Feedback, auf Haltung. Ich trainiere meine KI nicht wie einen Hund. Ich arbeite mit ihr wie mit einem Kollegen, der andere Fähigkeiten hat als ich – aber dieselbe Richtung einschlägt. Und das verändert nicht nur die Qualität der Berichte. Es verändert, wie ich selbst über Themen nachdenke.


Wer Deep Research ernsthaft nutzen will, braucht deshalb mehr als ein gutes Promptbeispiel. Er oder sie braucht eine eigene Haltung zur Zusammenarbeit mit KI. Eine Haltung, die bereit ist zu lernen, zu reflektieren, zu strukturieren – nicht nur im Ergebnis, sondern im Prozess. Alles andere ist Automatisierung. Aber das hier ist etwas anderes. Das ist Co-Intelligence. Und sie funktioniert.

Kommentare

Mit 0 von 5 Sternen bewertet.
Noch keine Ratings

Rating hinzufügen
bottom of page