Der Begriff Debugger bezeichnet die Fehler in Computersystemen. 1947 wurde die Bezeichnung populär aufgrund von Arbeiten am Mark II: Eine Motte verursachte einen Ausfall eines Computers. Dieser Ausfall wurde dann „Bug“ genannt.

Das Einsetzen des Debuggers

Das Einsetzen von Debuggern erfolgt während der Entwicklung und Wartung von Software, um die Bugs bzw. Fehler im System zu finden. So setzten die Programmierer die Debugger entsprechend während der Entwicklungsarbeiten ein und können so den Inhalt der Variablen untersuchen. Eine schrittweise Ausführung von Debugging macht es so möglich, Fehler im Ablauf aufzufinden.

Funktionsweise und Vorteile von Debugger

Um ein Programm zu debuggen, muss dieses Debug-Informationen enthalten. Dazu gehören spezielle Zusatzinformationen anhand derer der Debugger den Programmaufbau beurteilen kann. 

Das Debugging kann direkt auf den Chip als On-Chip-Debugging erfolgen. Für diesen Zweck haben Microcontroller (MCU) eine Schnittstelle zu einer Logik mit Debugging-Funktion. So bietet die On-Chip-Methodik ein unmittelbares Zugreifen auf die CPU-Register und die Speicherbereiche. Mittels Debugger kann über diese Logik ein Softwaretest durchgeführt werden.