Kategorie: Uncategorized


  • Reasoning in Large Language Models

    Mit Reasoning ist es möglich, dass ein System nicht nur Texte wiederholt, sondern selbstständig Antworten aus einem Wissensbestand ableitet, und damit den Redaktionsbedarf drastisch reduziert. Wer Reasoning produktiv einsetzen möchte, muss verstehen, wie es funktioniert und wo seine Grenzen liegen. Dieser Beitrag gibt dazu praxisnahe Orientierung.

  • Reasoning basierte Wissensdatenbanken – ein Blueprint

    Wie geht man vor, wenn man sich einen MVP für eine Reasoning-basierte Wissensdatenbank erstellen will? Wir haben mal einen kleinen Blueprint geschrieben.

  • Reasoning in Wissensdatenbanken – Vor- und Nachteile

    Wissensdatenbanken als Assistenten im technischen Service werden heute oft noch wenig eingesetzt, weil der Pflegeaufwand ziemlich hoch ist. Setzt man auf ein Reasoning-basiertes Konzept, reduziert sich der Aufwand für die Erstellung und Pflege des Wissens um 90% oder 95%. Allerdings können auch fehlerhafte Antworten auftreten. Wir haben mal die Vorteile und Nachteile zusammengestellt.

  • Kann KI jetzt juristische Aufgaben oder nicht?!

    Seit Anthropic seine Legal Plug-Ins vorgestellt hat ist die Idee im Markt: Rechtliche Fragen klärt man per AI. Geht das wirklich? Und was kann man daraus lernen?

  • Reasoning basierte GenAI-Wissensdatenbanken im technischen Service

    Der Redaktionsaufwand für Wissensdatenbanken ist im technischen Bereich oft exorbitant hoch und gerade von mittleren und kleineren Organisationen nicht leistbar. Reasoning-basierte GenAI Wissensdatenbanken werden hier immer mehr zu einer extrem attraktiven Alternative.

  • Reasoning Traps umgehen

    Lösungen und Antworten per Reasoning generieren ist viel effizienter, als alle Antworten vorsehen und dann nur Antworten zitieren. Aber da muss man auch wissen wie. Ein paar Tipps können wir geben. Und da wir einen sehr spannenden Artikel mit einer ähnlichen Aussage gefunden haben, dachten wir schreiben das mal auf.

  • DeepSeek – durchaus ernstzunehmen, aber im Alltags-Reasoning echte Schwächen

    DeepSeek ist in den letzten Wochen mit sehr tiefgehenden Innovationen aufgefallen. Sowohl mHC (magnifold-Constrained Hyper-Connections) als auch Engram sind Innovationen, die sich direkt mit dem Kern der Architektur des Deep Learnings beschäftigen und die das Lerntempo und die notwendigen Ressourcen optimieren. Und so haben wir uns mal das Reasoning ein bisschen näher angesehen.

  • Wie erkennt man eigentlich DeepFakes?

    Eigentlich sind wir gewohnt, Bildern und Videos zu vertrauen. „Seeing is believing“ ist ein geflügeltes Wort und drückt diese Erfahrung gut aus. DeepFakes erschüttern diese Erfahrung zunehmend. Daher wird es immer wichtiger zu verstehen, woran man denn DeepFakes erkennen kann. Wir haben uns damit beschäftigt und dafür ein paar Tipps beschrieben.

  • DeepSeek V3.2 im Test: Ein ernstzunehmender KI-Player

    Chinesische Unternehmen sorgen in letzter Zeit oft für Schlagzeilen im Bereich der künstlichen Intelligenz – und offensichtlich kann das Land leistungsfähige LLMs (Large Language Models) bereitstellen. Da war es höchste Zeit, auch DeepSeek 3.2 einmal genauer unter die Lupe zu nehmen.

  • Bloom Framework (Teil 2): Installieren und zum Laufen bringen

    Schritt-für-Schritt-Anleitung zur Installation von Anthropics Bloom Framework. Inkl. API-Keys, Konfiguration und erstem erfolgreichen Test auf KI-Sicherheit.