Navigation überspringen
Universitätsbibliothek Heidelberg
Standort: ---
Exemplare: ---
 Online-Ressource
Verfasst von:Ozdemir, Sinan [VerfasserIn]   i
Titel:Praxiseinstieg Large Language Models
Titelzusatz:Strategien und Best Practices für den Einsatz von ChatGPT und anderen LLMs
Mitwirkende:Langenau, Frank [ÜbersetzerIn]   i
Werktitel:Quick start guide to large language models
Verf.angabe:Sinan Ozdemir ; Deutsche Übersetzung von Frank Langenau
Ausgabe:1. Auflage.
Verlagsort:Heidelberg
Verlag:dpunkt
Jahr:2024
Umfang:1 online resource (274 pages)
Illustrationen:illustrations
Fussnoten:Includes bibliographical references and index
Abstract:Large Language Models (LLMs) wie ChatGPT sind enorm leistungsfähig, aber auch sehr komplex. Praktikerinnen und Praktiker stehen daher vor vielfältigen Herausforderungen, wenn sie LLMs in ihre eigenen Anwendungen integrieren wollen. In dieser Einführung räumt Data Scientist und KI-Unternehmer Sinan Ozdemir diese Hürden aus dem Weg und bietet einen Leitfaden für den Einsatz von LLMs zur Lösung praktischer Probleme des Natural Language Processings. Sinan Ozdemir hat alles zusammengestellt, was Sie für den Einstieg benötigen: Schritt-für-Schritt-Anleitungen, Best Practices, Fallstudien aus der Praxis, Übungen und vieles mehr. Er stellt die Funktionsweise von LLMs vor und unterstützt Sie so dabei, das für Ihre Anwendung passende Modell und geeignete Datenformate und Parameter auszuwählen. Dabei zeigt er das Potenzial sowohl von Closed-Source- als auch von Open-Source-LLMs wie GPT-3, GPT-4 und ChatGPT, BERT und T5, GPT-J und GPT-Neo, Cohere sowie BART. • Lernen Sie die Schlüsselkonzepte kennen: Transfer Learning, Feintuning, Attention, Embeddings, Tokenisierung und mehr • Nutzen Sie APIs und Python, um LLMs an Ihre Anforderungen anzupassen • Beherrschen Sie Prompt-Engineering-Techniken wie Ausgabe-Strukturierung, Gedankenketten und Few-Shot-Prompting • Passen Sie LLM-Embeddings an, um eine Empfehlungsengine mit eigenen Benutzerdaten neu zu erstellen • Konstruieren Sie multimodale Transformer-Architekturen mithilfe von Open-Source-LLMs • Optimieren Sie LLMs mit Reinforcement Learning from Human and AI Feedback (RLHF/RLAIF) • Deployen Sie Prompts und benutzerdefinierte, feingetunte LLMs in die Cloud
URL:Aggregator: https://learning.oreilly.com/library/view/-/9781098169039/?ar
Datenträger:Online-Ressource
Sprache:ger
Sach-SW:Traitement automatique des langues naturelles
 Intelligence artificielle
 artificial intelligence
K10plus-PPN:1892756870
 
 
Lokale URL UB: Zum Volltext
 
 Bibliothek der Medizinischen Fakultät Mannheim der Universität Heidelberg
 Klinikum MA Bestellen/Vormerken für Benutzer des Klinikums Mannheim
Eigene Kennung erforderlich
Bibliothek/Idn:UW / m4544413958
Lokale URL Inst.: Zum Volltext

Permanenter Link auf diesen Titel (bookmarkfähig):  https://katalog.ub.uni-heidelberg.de/titel/69227737   QR-Code
zum Seitenanfang