


20.09.2024 von Sascha Windisch und Immo Weber
Unternehmen und Behörden stehen oft vor der Herausforderung, relevante Informationen in riesigen Datenmengen zu finden. Obwohl mit Retrieval Augmented Generation (RAG) eine noch recht junge Technologie zur Verfügung steht um lokales Domänenwissen gezielt abzufragen, scheitert die Technologie oft daran komplexe verteilte Informationen zu aggregieren. Hier kommt GraphRAG ins Spiel. In diesem Blog-Beitrag stellen wir dies ausführlich vor.
weiterlesen19.09.2024 von Ellen Tötsch
Viel ist passiert seit mit ChatGPT der Durchbruch für Large Language Models (LLMs) gelang. Was geblieben ist, ist unser Wunsch diese Sprachmodelle mit weiterem Wissen zu ergänzen. Eine Pauschallösung gibt es nicht mehr, dafür zahlreiche Möglichkeiten. Dieser Blog-Beitrag bietet einen Überblick über die verschiedenen Optionen der Optimierung von LLMs.
weiterlesen16.01.2024 von Azza Baatout und Marc Mezger
Die Welt der Künstlichen Intelligenz entwickelt sich mit atemberaubender Geschwindigkeit, und Large Language Models (LLMs) stehen an der Spitze dieser Revolution. LLM-Operationalisierung ist ein wesentlicher Bestandteil dieser Entwicklung und bietet Unternehmen die Möglichkeit, nicht nur die Grenzen der Technologie zu erweitern, sondern auch neue Maßstäbe für die Interaktion zwischen Mensch und Maschine zu setzen. Wieso das so ist, erklären wir in unserem Blog-Beitrag.
weiterlesen15.12.2023 von Marc Mezger
In der Welt der Künstlichen Intelligenz (KI) wurde bisher oft angenommen, dass größere Modelle besser sind. Neuere Forschungen zeigen jedoch, dass kleinere Sprachmodelle, die bisher nur als Zwischenschritte zu ihren größeren Pendants betrachtet wurden, in verschiedenen Anwendungen die Leistung großer Sprachmodelle (LLMs) übertreffen oder zumindest erreichen. In meinem Blog-Beitrag greife ich diese Erkenntnis auf und stelle verschiedene kleine Sprachmodelle vor. Dabei gehe ich detailliert auf die Vor- und Nachteile im direkten Vergleich zu ihren größeren Pendants ein.
weiterlesen23.10.2023 von Lilian Do Khac
Die automatische Textzusammenfassung erleichtert die Arbeit erheblich, da solche Aufgaben zeitaufwendig sind und im Wesentlichen Datentransformation darstellen. Dieser Blog-Beitrag konzentriert sich auf das Prompt Engineering und die entsprechende Vorbereitung für die maschinelle Zusammenfassung von Texten mithilfe großer Sprachmodelle wie Aleph Alpha Luminous. Der erste Teil behandelt die Zusammenfassungsanforderungen und die technischen Herausforderungen mit LLMs.
weiterlesen29.08.2023 von Marc Mezger
Was verbirgt sich hinter dem Begriff Open Source und warum sind Open-Source-Sprachmodelle eigentlich so wichtig? In meinem Blog-Beitrag beantworte ich diese Fragen und stelle euch drei wichtige Open-Source-Large-Language-Modelle näher vor.
weiterlesen10.07.2023 von Marc Mezger
Angesichts der aktuellen Aufmerksamkeit und des zunehmenden Einsatzes von Large Language Models wie OpenAIs ChatGPT zur Lösung von Natural-Language-Processing-Problemen möchte ich in diesem Blog-Beitrag eine Einführung in die KI-Modelle der deutschen Firma Aleph Alpha geben. Ich zeige, warum die Existenz europäischer KI-Unternehmen von großer Bedeutung ist und dass der praktische Einsatz von ChatGPT problematisch sein kann, da es sich dabei um ein Produkt eines US-amerikanischen Unternehmens handelt.
weiterlesen26.05.2023 von Marc Mezger
In diesem Blog-Beitrag zeige ich, wie ihr die Leistungsfähigkeit von Aleph Alphas Large Language Model Luminous für die automatisierte Dokumentenverarbeitung nutzen könnt. Ich präsentiere euch detaillierte Anwendungsfälle und erläutere, wie Luminous die Extraktion von Informationen aus Dokumenten effizient, präzise und kostengünstig ermöglicht.
weiterlesen