Ende 2022 erhielten die KI-Technologien („Künstliche Intelligenz“) mit ChatGPT einen unerwarteten Aufschwung. Hierbei spielen die auf LLMs („Large Language Models“) aufbauenden neuronalen Netze eine entscheidende Rolle.
Große Sprachmodelle (LLMs) sind nicht neu, ihr Innovationstempo jedoch gleicht einer Exponentialkurve. Mit dem gleichzeitigen Einstieg von Microsoft, Google und Meta darf man sich auf eine aufregende, zugleich aber holprige Fahrt einstellen. Manche haben ChatGPT fälschlicherweise als Google-Killer bezeichnet oder behauptet, generative KI ("Künstliche Intelligenz") würde die Suche ersetzen.
Das Gegenteil ist der Fall, denn man muss zwischen Suche und generativer KI unterscheiden. Erstere findet Informationen, die bereits existieren, zweitere schafft etwas Neues auf Grundlage dessen, worauf das LLM trainiert wurde. Zwar fühlt sich ChatGPT ein wenig wie eine Suche an. Trotzdem ruft es keine Information ab, sondern kreiert einen Mix aus Wörtern, den es auf der Grundlage von Wahrscheinlichkeiten erstellt. Genau aus diesem Grund werden LLMs Suchmaschinen auch nicht ersetzen, sondern sie vielmehr ergänzen, und zwar hinsichtlich das Komforts, indem sie Ergebnisse in einem prägnanten, leicht zu lesenden Format ausgeben.
Es wird daher eher auf eine Bündelung von generativen LLM mit Unternehmenssuche hinauslaufen als auf einen Wettkampf zwischen beiden Techniken. Das Sucherlebnis wird sich verändern und in spezialisierte LLMs aufgesplittet werden, die bestimmte Anforderungen erfüllen. Suche - insbesondere die Unternehmenssuche (Enterprise Search) - wird zum Experimentierfeld für KI und LLM. Anders als beim B2C haben B2B- und unternehmensinterne Anwendungen eine viel geringere Toleranz für Ungenauigkeiten und verlangen gleichzeitig größeren Schutz individualisierter Informationen. Deshalb wird die Einführung von generativer KI im Bereich Enterprise Search hinter der allgemeinen Internetsuche zurückbleiben und kreative Ansätze erfordern, um den besonderen Herausforderungen im B2B gerecht zu werden.
Folgende fünf Strömungen werden die Unternehmenssuche in 2023 prägen:
Mit der wachsenden Leistungsfähigkeit der Sprachmodelle geht es künftig nicht mehr darum, ein bestimmtes Dokument zu finden, sondern eine bestimmte Antwort innerhalb des Dokumentes. Informationen werden auf Grundlage ihrer Bedeutung abgerufen und LLMs werden in der Lage sein, relevantere Inhalte zu finden. So liefern sie gezieltere Ergebnisse, und dies in natürlicher Sprache und als leicht verständliche Zusammenfassung.
Bekämpfung von Wissensverlust
Durch hohe Beschäftigtenfluktuation, Umstrukturierungen in Folge von Fusionen, Übernahmen oder Personalabbau ist Wissen heute auf viele Informationsinseln verstreut. Noch dazu hat die Verlagerung hin zu hybriden, mobilen Arbeitsplätzen - bei gleichzeitig explosionsartiger Zunahme unstrukturierter Daten - zu einer immensen Belastung für das Wissensmanagement geführt. In einer Umfrage unter 1.000 IT-Führungskräften großer Unternehmen äußerten 67 Prozent der Befragten ihre Bedenken über den Verlust von Know-how, wenn Beschäftigte das Unternehmen verlassen. IDC schätzt, dass Fortune-500-Unternehmen durch die mangelnde Weitergabe von Wissen jährlich 31,5 Milliarden US-Dollar verlieren. Intelligente Unternehmenssuche verbindet deshalb die Informationsinseln und ermöglicht es Unternehmen, das gesamte Wissen ihrer Organisation leicht zu finden, zu erschließen und weiterzugeben.
Das Problem der Anwendungs-Zersplitterung
Heutzutage greift ein durchschnittlicher Angestellter auf bis zu 40 Anwendungen pro Tag zu, jede mit ihrer eigenen (oft suboptimalen) Sucherfahrung. Dies führt zu einer hohen kognitiven Belastung, um den Arbeitsfluss über so viele unzusammenhängende Systeme aufrechtzuerhalten. Wichtige Informationen werden übersehen, weil sie in zu vielen Anwendungen untergegangen sind. Der Trend der Zersplitterung wird sich auch im kommenden Jahr fortsetzen. Eine Plattform für Unternehmenssuche bindet alle Anwendungen an, ermöglicht so den Zugriff auf das gesamte Unternehmenswissen über eine einzige Schnittstelle und wird zur einzigen Möglichkeit, nahtlos mit Wissen zu interagieren.
Suche wird relevanter
Einfache Suchfunktionen, wie sie fast jede Softwareanwendung beinhaltet, liefern nur unscharfe Ergebnisse. Es kommt aber auf Relevanz an. Sie zu erzeugen, ist schwierig und gleichzeitig unerlässlich, um brauchbare Suchergebnisse zu erhalten. Enterprise-Search-Lösungen beinhalten deshalb Natural Language Processing und Machine Learning-Algorithmen wie automatische Clusterbildung (Einordnung von Inhalten in Kategorien), Klassifizierung anhand von Beispielen (ohne definierte Regeln), Empfehlungen, Predictive Analytics und Ähnlichkeitsberechnungen (welche Inhalte sind ähnlich, auch wenn die Schlüsselbegriffe nicht die gleichen sind?).
Durch das Aufkommen großer Sprachmodelle (LLMs) öffnet sich derzeit die Tür für die Vektorsuche, bei welcher Informationen auf der Grundlage ihrer Bedeutung abgerufen werden. LLM-Technologie wird noch stärker in tiefe neuronale Netze integriert. Das bedeutet, Modelle beziehen den Kontext mit ein, um durch semantische Suche eine höhere Relevanz zu erzielen. Die Kombination von semantischen und vektoriellen Suchansätzen mit statistischen Suchfunktionen für Schlüsselwörter liefert Relevanz in einer Vielzahl von Unternehmensszenarien. Neuronale Suche stellt den ersten Schritt in Richtung Relevanz seit Jahrzehnten dar. So können Computer lernen, mit Menschen zusammenzuarbeiten, und nicht umgekehrt.
Q&A wie bei Google
LLMs und die Fähigkeit, mit einer Enterprise-Search-Engine semantisch zu arbeiten, erlauben Fragen und Antworten, wie man sie von Google kennt, künftig auch in Unternehmen. Noch steckt die Anwendung in ihren Anfängen, aber die Technologie schreitet schnell voran, was sich 2023 fortsetzen wird. Neuronale Suche wird schon bald in der Lage sein, direkte Antworten auf einfache Fragen zu extrahieren.
Weiterentwicklung der neuronalen Netze
Innovation beruht auf Wissen und dessen Verknüpfung. Aus der Interaktion lässt sich Bedeutung abzuleiten und werden damit neue Werte geschaffen. Unternehmenssuche ("Enterprise Search") schafft diese Verbindungen über Informationssilos hinweg und ist daher ein wichtiger Wegbereiter für Innovationen. Dank der Weiterentwicklung von neuronalen Netze und LLMs wird sie schon bald eine neue Dimension der Genauigkeit und Leistungsfähigkeit erreichen.