Tags
Language
Tags
November 2025
Su Mo Tu We Th Fr Sa
26 27 28 29 30 31 1
2 3 4 5 6 7 8
9 10 11 12 13 14 15
16 17 18 19 20 21 22
23 24 25 26 27 28 29
30 1 2 3 4 5 6
    Attention❗ To save your time, in order to download anything on this site, you must be registered 👉 HERE. If you do not have a registration yet, it is better to do it right away. ✌

    ( • )( • ) ( ͡⚆ ͜ʖ ͡⚆ ) (‿ˠ‿)
    SpicyMags.xyz

    Machine Learning und KI kompakt: Zentrale Konzepte verstehen und anwenden

    Posted By: naag
    Machine Learning und KI kompakt: Zentrale Konzepte verstehen und anwenden

    Machine Learning und KI kompakt: Zentrale Konzepte verstehen und anwenden
    Deutsch | 28. Januar 2025 | ASIN: B0DV5L1YMR | 264 Seiten | EPUB (True) | 6.94 MB

    Vertiefendes Wissen von Deep Learning über Computer Vision bis Natural Language Processing
    Schließt die Lücke zwischen Grundlagen und Profiwissen
    Einfache, prägnante Erklärungen zu wichtigen und aktuellen Themen
    Mit Übungsaufgaben sowie Codebeispielen auf GitHub


    Sie verfügen bereits über Grundkenntnisse zu maschinellem Lernen und künstlicher Intelligenz, haben aber viele Fragen und wollen tiefer in wesentliche und aktuelle Konzepte eintauchen? ML- und KI-Experte Sebastian Raschka greift in diesem Buch die wichtigsten Schlüsselfragen auf und liefert sowohl prägnante als auch einfach verständliche Erklärungen zu komplexen und fortgeschrittenen Themen wie Deep Learning, Überanpassung, Self-Supervised Learning, generative KI, Computer Vision, Natural Language Processing und Modellevaluierung.

    Viele Beispiele, anschauliche Illustrationen und praktische Übungsaufgaben helfen Ihnen dabei, das Erlernte nicht nur schnell zu verstehen, sondern auch praktisch umzusetzen. Dabei werden weder fortgeschrittene Mathematik- noch Programmierkenntnisse vorausgesetzt – wer tiefer in den Code eintauchen will, findet jedoch im kostenlosen Zusatzmaterial einige Codebeispiele.

    Aus dem Inhalt:

    Umgang mit verschiedenen Zufallsquellen beim Training neuronaler Netze
    Unterscheidung zwischen Encoder- und Decoder-Architekturen in großen Sprachmodellen (LLMs)
    Verringerung von Überanpassung durch Daten- und Modellmodifikationen
    Konstruktion von Konfidenzintervallen für Klassifizierer und Optimierung von Modellen mit begrenzten gelabelten Daten
    Wählen zwischen verschiedenen Multi-GPU-Trainingsparadigmen und verschiedenen Arten von generativen KI-Modellen
    Verstehen von Performancemetriken für die Verarbeitung natürlicher Sprache