StartseiteIT und SoftwareDocker bringt mit Neo4j, LangChain und Ollama neuen GenAI-Stack für...

Docker bringt mit Neo4j, LangChain und Ollama neuen GenAI-Stack für Entwickler heraus

Teilen

Sofort einsatzbereiter und sicherer Stack: Minutenschneller Zugriff auf GenAI-Apps für Entwickler

Los Angeles / München, 09. Oktober 2023 – Auf der jährlichen globalen Entwicklerkonferenz DockerCon (https://www.dockercon.com/)hat Docker, Inc. gemeinsam mit seinen Partnern Neo4j (https://neo4j.com/), LangChain (https://www.langchain.com/)und Ollama (https://ollama.ai/)einen neuen GenAI-Stack angekündigt. Dieser soll Entwicklern helfen, innerhalb von Minuten die Arbeit mit generativen KI-Anwendungen zu beginnen. Der GenAI-Stack besteht aus Large Language Models (LLMs) von Ollama, Vektor- und Graphdatenbanken von Neo4j und dem LangChain-Framework. Er ist vorkonfiguriert, bereit zum Programmieren und sicher. Damit entfällt die umständliche Suche nach passenden Technologien aus verschiedenen Quellen und ihre Konfiguration. Docker kündigte auch sein erstes KI-gestütztes Produkt an: Docker AI (https://www.docker.com/press-release/announces-ai-boosting-developer-productivity-through-automated-guidance/).

„Entwickler sind begeistern von den Möglichkeiten, die GenAI bietet. Aber die Geschwindigkeit des Wandels, die Zahl der Anbieter und die großen Unterschiede zwischen den Technologie-Stacks machen es schwierig zu entscheiden, wo und wie man anfangen soll“, sagte Scott Johnston, CEO von Docker. „Die Ankündigung beseitigt dieses Dilemma. Sie bietet Entwicklern einen schnellen und sicheren Einstieg, mit dem sie die Docker-Tools, -Inhalte und -Dienste, die sie bereits kennen und lieben, zusammen mit Partnertechnologien auf dem neuesten Stand der GenAI-App-Entwicklung nutzen können.“

Der GenAI-Stack, der jetzt im Learning Center in Docker Desktop und als Repository unter https://github.com/docker/genai-stack verfügbar ist, adressiert häufige GenAI-Anwendungsfälle und verwendet vertrauenswürdige Open-Source-Inhalte des Docker Hubs. Er gehört zu einer Reihe von neuen KI/ML-Fähigkeiten, Inhalten und Partnerschaften, die von Docker angekündigt wurden, um Entwicklern zu helfen, schnell und sicher die Vorteile von KI/ML in ihren Anwendungen zu nutzen. Die Komponenten umfassen:

– Vorkonfigurierte Open-Source-LLMs wie Llama 2, Code Llama, Mistral oder private Modelle wie GPT-3.5 und GPT-4 von OpenAI
– Unterstützung von Ollama für Entwickler für den lokalen Start mit Open-Source-LLMs
– Neo4j als Standarddatenbank für Graph und native Vektorsuche, die explizite und implizite Muster und Beziehungen in Daten aufdeckt, KI/ML-Modelle schneller und genauer macht und als Langzeitspeicher für diese Modelle dient;
– Neo4j Knowledge Graphen, die als Wissensbasis für LLMs dienen – für
genauere GenAI-Vorhersagen und -Ergebnisse
– LangChain-Orchestrierung zwischen dem LLM, der Anwendung und der Datenbank mit Vektorindex und als Rahmen für die Entwicklung kontextbezogener, schlussfolgernder Anwendungen auf Grundlage von LLMs
– eine Reihe von unterstützenden Tools, Code-Vorlagen, Anleitungen und bewährten GenAI-Verfahren

Sofort einsatzbereit, bietet der GenAI-Stack zahlreiche Funktionen, wie zum Beispiel müheloses Laden von Daten und Erstellung von Vektorindizes. So können Entwickler Daten nahtlos importieren, Vektorindizes erstellen, Fragen und Antworten einbetten und im Vektorindex speichern. Ihnen stehen erweiterte Abfragen und die Anreicherung von Ergebnissen zur Verfügung. Dabei können sowohl Daten zusammengefasst als auch Suchresultate durch flexible Knowledge Graphen dargestellt werden. Die Nutzer können auch verschiedene Antworten in unterschiedlichen Formaten generieren, wie zum Beispiel Aufzählungslisten, Gedankengänge, GitHub-Probleme, PDFs, Gedichte und mehr. Darüber hinaus können Entwickler die Ergebnisse zwischen LLMs allein, LLMs mit Vektor und LLMs mit Vektor- und Knowledge-Graph-Integration vergleichen.

James Governor, Hauptanalyst und Mitbegründer, RedMonk
„In diesem Jahr hat sich alles verändert, denn KI wurde von einem Bereich für Spezialisten zu etwas, das viele von uns täglich nutzen. Die Tool-Landschaft ist jedoch sehr fragmentiert, und es braucht ein großartiges Paket, damit unter Entwicklern wirklich eine breite Akzeptanz für die Erstellung von KI-gesteuerten Anwendungen in Gang kommt. Der GenAI-Stack von Docker, Neo4j, LangChain und Ollama bietet die Art konsistenter, vereinheitlichter Erfahrung, die Entwickler mit neuen Tools und Methoden produktiv macht. Damit können Mainstream-Entwickler KI nicht nur nutzen, sondern auch neue Apps damit entwickeln.“

Emil Eifrem, Mitgründer und CEO, Neo4j
„Die treibende Kraft unserer gemeinsamen Bemühungen war die Mission, Entwicklern die Möglichkeit zu geben, sehr einfach GenAI-gestützte Anwendungen zu erstellen und GenAI-Funktionen zu bestehenden Anwendungen hinzuzufügen. Wir freuen uns sehr über die Möglichkeiten, die sich dadurch für Millionen von Entwicklern ergeben.“

Harrison Chase, Mitgründer und CEO, LangChain
„Wir sind alle hier, um Teams dabei zu helfen, die Lücke zwischen der magischen Benutzererfahrung zu schließen, die GenAI ermöglicht, und der Arbeit, die nötig ist, um diese Erfahrung zu erreichen. Dies ist ein fantastischer Schritt in diese Richtung.“

Jeffrey Morgan, Erfinder von Ollama
„Docker hat die Art und Weise verändert, wie Anwendungen entwickelt und bereitgestellt werden. Ich freue mich darauf, mit der Entwickler-Community von Docker zusammenzuarbeiten, um die nächste Generation von Anwendungen mit Fokus auf KI zu entwickeln.“

Über DockerCon
Die heutigen Ankündigungen wurden auf der DockerCon 2023 vorgestellt. Die Veranstaltung bringt die gesamte Gemeinschaft der Docker-Entwickler, Mitwirkenden und Partner zusammen, um sich auszutauschen, zu lehren und zusammenzuarbeiten, um das Verständnis und die Fähigkeiten der Cloud-nativen Entwicklung zu erweitern. Die DockerCon ist eine hochkonzentrierte Lernerfahrung, die Entwicklern zeigt, was neu ist und was mit Docker und seinem Ökosystem möglich ist, und wie sie diese Innovationen sofort nutzen können, um ihre Arbeit besser und schneller zu erledigen.
Die virtuellen Sitzungen sind kostenlos, interaktiv, unterhaltsam und so konzipiert, dass sie am Tag der Veranstaltung und darüber hinaus weltweit flexibel genutzt werden können.

Über Docker
Docker unterstützt Millionen von Entwicklern bei der effizienten und gemeinsamen Erstellung, Freigabe und Ausführung von Anwendungen. Die kollaborative Anwendungsentwicklungsplattform Docker bietet Entwicklern eine unübertroffene Erfahrung für einen integrierten, zuverlässigen und sicheren Workflow, der die Bereitstellung von Anwendungen vom Code bis zur Cloud beschleunigt. Durch eine Kombination aus dem weltweit größten Marktplatz für vertrauenswürdige Inhalte und Integrationen mit führenden Tools ermöglicht Docker Teams die schnelle Erstellung moderner Anwendungen.
Weitere Informationen finden Sie unter https://www.docker.com
Holen Sie sich die neueste Version von Docker Desktop unter / https://www.docker.com/get-started/

Über Neo4j
Neo4j ist der führende Anbieter von Graphdatenbanken und Graph Analytics und hilft Unternehmen, Beziehungen und Muster innerhalb von Milliarden von Daten umfassend, einfach und schnell aufzudecken. Anwender nutzen diese vernetzte Datenstruktur, um innovative Lösungen für ihre dringlichsten Geschäftsprobleme zu entwickeln – von Betrugserkennung und 360-Grad-Kundenansicht, über Knowledge Graphen und Supply Chain, bis hin zu Netzwerkverwaltung und IoT. Und das unabhängig vom Datenwachstum.
Neo4js umfassender Graph Stack bietet leistungsstarke native Graph-Datenspeicherung, Data Science, Analytik und Visualisierung, einschließlich hoher Sicherheitseinstellungen für Enterprise-Umgebungen, skalierbarer Architektur und ACID-Konformität. Die Neo4j-Community mit ihren Open-Source Enthusiasten besteht aus mehr als 250.000 Entwicklern, Datenwissenschaftlern und Architekten aus Hunderten von Fortune-500-Unternehmen, Regierungsbehörden und NGOs.
Weitere Informationen unter https://neo4j.com.

Über LangChain
LangChain ist ein Open-Source-Framework und Entwickler-Toolkit, das Entwicklern hilft, kontextabhängige Anwendungen zu erstellen, die auf LLMs basieren.

Firmenkontakt
Docker
David Oro
. .
. .
.

Home

Pressekontakt
Neo4j Media Hotline
pr@neo4j.com .
https://neo4j.com/news/ .
Lucy Turpin Communications
.

Home

Die Bildrechte liegen bei dem Verfasser der Mitteilung.

Lesen Sie mehr zum Thema

Weitere News

Erkunden Sie verwandte Artikel wie: Docker bringt mit Neo4j, LangChain und Ollama neuen GenAI-Stack für Entwickler heraus