Autorenname: Stephan Beeker

Qwen3-Coder (Tetris Challenge)

Das neue LLM Qwen3-Coder schlägt sich in meinem persönlichen Tetris Benchmark ganz gut. Mit folgendem Prompt und einem Request kommt ein spielbares Tetris Spiel raus. Voll funktionsfähig, wie man es von Tetris kennt. Etwa auf dem Level von o3-mini oder Deepseek R1. Bitte schreibe in JavaScript und HTML ein Tetris Spiel. Die Steuerung soll über […]

Qwen3-Coder (Tetris Challenge) Weiterlesen »

Das Problem mit großen Kontext Fenstern bei LLM Chats

Große Kontextfenster in KI-Modellen, die bis zu einer Million Tokens unterstützen, wecken enorme Begeisterung: Man könnte einfach alles – Dokumente, Tools, Anweisungen – in einen Prompt packen und die KI den Rest erledigen lassen. Die Idee klingt zwar verlockend, doch die Praxis zeigt, dass zu viel Kontext eine KI eher verwirren als unterstützen kann. Dieses

Das Problem mit großen Kontext Fenstern bei LLM Chats Weiterlesen »

ChatGPT o3-mini vs. DeepSeek R1 (Tetris Challenge)

Vergleich zwischen ChatGPT o3-mini und DeepSeek R1 (online). Aufgabestellung: Erstellung eines Tetris Games. Der Programmcode (HTML und JavaScript) umfasst bei ChatGPT o3-mini 333 Zeilen und bei DeepSeek R1 188 Zeilen. Wie effizient und schlau der jeweilige Programmcode ist, habe ich nicht näher analysiert. Für die DeepSeek Version benötigte ich zwei Prompts (siehe Screenshot). Zudem springt

ChatGPT o3-mini vs. DeepSeek R1 (Tetris Challenge) Weiterlesen »

C++ vor dem aus? FBI warnt vor der Verwendung von Memory unsafe Programmiersprachen

Die US-Regierung verschärft ihre Warnungen vor gefährlichen Software-Entwicklungsmethoden. Die Cybersecurity and Infrastructure Security Agency (CISA) und das Federal Bureau of Investigation (FBI) haben gemeinsam einen Bericht veröffentlicht, der vor grundlegenden Sicherheitsfehlern warnt, die weiterhin kritische Infrastrukturen gefährden. Insbesondere wird die Nutzung von memory-unsafe Programmiersprachen wie C und C++ kritisiert. Der Bericht „Product Security Bad Practices“

C++ vor dem aus? FBI warnt vor der Verwendung von Memory unsafe Programmiersprachen Weiterlesen »

Was zum Geier...ist eigentlich Supervised und Unsupervised Learning?

Was zum Geier…ist eigentlich Supervised und Unsupervised Learning?

Es gibt da so eine Reihe von Sprichwörtern: „Übung macht den Meister“, „Kein Meister ist je vom Himmel gefallen“, „Aus Fehlern wird man klug“. Der Mensch weiß, bevor er etwas wissen kann, muss er es erst lernen (außer Sokrates, der wusste, dass er nichts wusste). Was für den Mensch gilt, gilt genauso auch für die

Was zum Geier…ist eigentlich Supervised und Unsupervised Learning? Weiterlesen »

Grundlagen: Wie installiert man Python auf seinem System?

Python ist oft „out-of-the-box“ nicht auf einem System installiert. Die Installation von Python ist aber nicht schwierig. Auf Youtube findet man viele Videos, die zeigen, wie man Python installiert. Nachfolgend sind einige Videos aufgeführt. Ihr könnt es den Erstellern dieser Videos gerne mit einem Abo danken. Folgendes Video erklärt, wie man Python unter Windows installiert.

Grundlagen: Wie installiert man Python auf seinem System? Weiterlesen »

Was zum Geier...ist eigentlich Supervised und Unsupervised Learning?

Was zum Geier…ist Overfitting und Underfitting?

Overfitting und Underfitting sind Begriffe aus dem Bereich des Machine Learnings. Maschinenlernen bedeutet, dass über zuvor aufbereitete Daten und ausgewählte Algorithmen ein KI-Modell trainiert wird, das verwendet werden kann, um für zukünftige Daten Aussagen zu treffen. Z. B. kann ein mit historischen Börsendaten trainiertes Modell mit aktuellen Daten die zukünftigen Aktienkurse vorhersagen. Wie gut nun

Was zum Geier…ist Overfitting und Underfitting? Weiterlesen »

Nach oben scrollen