Unix Timestamp Converter

Sofort zwischen Unix timestamps und menschenlesbaren Daten konvertieren

Alle Berechnungen werden lokal in Ihrem Browser ausgeführt. Es werden keine Daten an unsere Server gesendet oder irgendwo gespeichert.

Was ist ein Unix-Timestamp?

Ein Unix-Timestamp (auch bekannt als Epoch time oder POSIX time) ist eine numerische Darstellung der Zeit, die die Anzahl der Sekunden (oder Millisekunden) zählt, die seit dem 1. Januar 1970 um 00:00:00 UTC vergangen sind. Dieser Moment ist als "Unix Epoch" bekannt und dient als Nullpunkt für alle Unix-Timestamp-Berechnungen. Dieses System bietet eine standardisierte, zeitzonenunabhängige Methode zur Darstellung von Datum und Uhrzeit in Computersystemen weltweit.

Unix-Timestamps sind grundlegend für die moderne Computerwelt und werden umfangreich in Programmierung, Datenbanken, APIs und Systemen eingesetzt, die eine konsistente Zeitverfolgung über verschiedene Zeitzonen und Plattformen hinweg benötigen. Das Format ist einfach, kompakt und beseitigt die Komplexität im Umgang mit Zeitzonen, Sommerzeit und Inkonsistenzen bei Datumsformaten.

Wichtige Eigenschaften von Unix-Timestamps

  • Universeller Standard: Wertgleichheit: Derselbe Timestamp-Wert repräsentiert denselben Moment weltweit, unabhängig von der Zeitzone
  • Einfaches Format: Ein einzelner Ganzzahlwert, der die Zeit in Sekunden oder Millisekunden darstellt
  • Einfache Berechnungen: Zeitdifferenzen sind einfache arithmetische Operationen
  • Kompakte Speicherung: Erfordert nur 32- oder 64-Bit Speicher
  • Programmiererfreundlich: Native Unterstützung in allen gängigen Programmiersprachen
  • Datenbank-effizient: Ideal zum Sortieren und Indizieren zeitbasierter Datensätze
  • Zeitzonenunabhängig: Beseitigt Verwirrung durch DST und regionale Zeitunterschiede

Verständnis der Timestamp-Formate

Unix-Timestamps liegen in zwei primären Formaten vor, die jeweils für unterschiedliche Genauigkeitsanforderungen geeignet sind:

1. Sekunden (10 Ziffern)

Traditionelles Unix-Timestamp-Format, das Sekunden seit 1970 zählt. Beispiel: 1698768000

Repräsentiert: 31. Oktober 2023, 12:00:00 UTC

2. Millisekunden (13 Ziffern)

Höhere Genauigkeit, die Millisekunden seit 1970 zählt. Beispiel: 1698768000000

Verwendet von JavaScript, Node.js und Systemen, die Millisekunden-Präzision benötigen

Formatvergleich

Event Sekunden-Format Millisekunden-Format
Unix Epoch (Start) 0 0
Y2K (2000-01-01) 946684800 946684800000
Beispielzeit 1698768000 1698768000000
Y2038-Problem-Grenze 2147483647 2147483647000

💡 Auto-Erkennung: Unser Konverter erkennt das Format automatisch anhand der Anzahl der Ziffern: 10 digits = seconds, 13 digits = milliseconds. The relationship is simple: milliseconds = seconds × 1000.

Wie man Unix-Timestamps konvertiert

Die Umwandlung zwischen Unix-Timestamps und menschenlesbaren Daten ist mit den richtigen Werkzeugen einfach. Unser Konverter verarbeitet beide Umwandlungsrichtungen und mehrere Ausgabeformate automatisch.

Unix Timestamp → Menschenlesbares Datum

Eingabe: 1698768000

ISO 8601: 2023-10-31T12:00:00.000Z

UTC: Tue, 31 Oct 2023 12:00:00 GMT

Lokale Zeit: Variiert abhängig von Ihrer Zeitzone

Relativ: "vor X Tagen" oder "in X Tagen"

Menschenlesbares Datum → Unix Timestamp

Eingabe: 31. Oktober 2023, 12:00:00 PM

Sekunden: 1698768000

Millisekunden: 1698768000000

Schnellvoreinstellungen

Gängige Timestamps zum Testen und als Referenz:

  • Jetzt: Aktueller Timestamp (aktualisiert in Echtzeit)
  • Unix Epoch: 0 (1. Januar 1970, 00:00:00 UTC)
  • Y2K: 946684800 (1. Januar 2000, 00:00:00 UTC)

Häufige Anwendungsfälle für Unix-Timestamps

Unix-Timestamps sind allgegenwärtig in moderner Softwareentwicklung und Systemadministration:

  • Datenbankeinträge: Effizientes Speichern von Erstellungs-/Änderungszeiten für Datensätze
  • API-Antworten: Austausch von Zeitdaten zwischen Systemen ohne Zeitzonenprobleme
  • Protokolldateien: Zeitstempel für Ereignisse in Server-Logs, Anwendungs-Logs und Prüfpfaden
  • Sitzungsverwaltung: Verfolgung des Ablaufs von Benutzersitzungen und Authentifizierungstokens
  • Geplante Aufgaben: Definition, wann cron-Jobs und automatisierte Aufgaben ausgeführt werden sollen
  • Versionskontrolle: Aufzeichnen von Commit-Timestamps in Git und anderen VCS-Systemen
  • Dateisysteme: Verfolgung von Erstellungs-, Änderungs- und Zugriffszeiten von Dateien
  • Cache-Ablauf: Festlegen der TTL (time-to-live) für zwischengespeicherte Daten
  • Datenanalyse: Verarbeitung von Zeitreihendaten und zeitlichen Analysen
  • JavaScript/Node.js: Date.now() gibt den Millisekunden-Unix-Timestamp zurück

Verständnis des Y2038-Problems

⚠️ Wichtiger Hinweis: Das Y2038-Problem (auch Unix Millennium Bug genannt) betrifft 32-Bit-Systeme, die Unix-Timestamps als vorzeichenbehaftete Ganzzahlen speichern. Am 19. Januar 2038 um 03:14:07 UTC werden 32-Bit-Timestamps überlaufen und in negative Werte umspringen, was potenziell Systemausfälle verursachen kann.

Der Maximalwert für eine 32-Bit vorzeichenbehaftete Ganzzahl ist 2147483647, das den letzten Moment vor dem Überlauf darstellt. Moderne 64-Bit-Systeme sind von dieser Einschränkung nicht betroffen und können Daten weit in die Zukunft darstellen (bis zum Jahr 292 Milliarden).

Lösung: Die meisten modernen Systeme sind auf 64-Bit-Timestamps umgestiegen, aber Legacy-Systeme und eingebettete Geräte können weiterhin anfällig sein. Verwenden Sie für neue Projekte stets 64-Bit-Timestamps, um Langlebigkeit zu gewährleisten.

Häufig gestellte Fragen

Was ist die Unix Epoch?

Die Unix Epoch ist der Ausgangspunkt für Unix-Timestamp-Berechnungen: der 1. Januar 1970 um 00:00:00 UTC. Dieses Datum wurde mit der Entwicklung des Unix-Betriebssystems gewählt und ist zum universellen Standard für die Darstellung von Zeitstempeln in der Informatik geworden. Der Timestamp-Wert 0 repräsentiert genau diesen Moment.

Wie konvertiere ich Unix-Timestamp in Datum in JavaScript?

In JavaScript verwenden Sie new Date(timestamp * 1000) für Sekunden oder new Date(timestamp) für Millisekunden. Beispiel: new Date(1698768000 * 1000) erstellt ein Date-Objekt. Date.now() in JavaScript gibt den aktuellen Timestamp in Millisekunden zurück.

Was ist der Unterschied zwischen Sekunden- und Millisekunden-Format?

Seconds format (10 digits) is the traditional Unix timestamp used by most Unix/Linux systems and languages like Python and PHP. Milliseconds format (13 digits) provides higher precision and is used by JavaScript, Node.js, and Java. To convert: milliseconds = seconds × 1000.

Können Unix-Timestamps Daten vor 1970 darstellen?

Ja! Negative Unix-Timestamps repräsentieren Daten vor der Unix Epoch (1. Januar 1970). Zum Beispiel steht -86400 für den 31. Dezember 1969, 00:00:00 UTC. Allerdings haben einige Systeme und Sprachen Einschränkungen bei negativen Timestamps, daher sollten Sie Ihre spezifische Implementierung testen.

Was ist das Y2038-Problem und sollte ich mir Sorgen machen?

Das Y2038-Problem betrifft 32-Bit-Systeme, bei denen Timestamps am 19. Januar 2038 um 03:14:07 UTC überlaufen. Moderne 64-Bit-Systeme sind nicht betroffen und können Daten bis zum Jahr 292 Milliarden darstellen. Wenn Sie neue Software entwickeln, verwenden Sie stets 64-Bit-Timestamps. Legacy-Systeme müssen möglicherweise vor 2038 aktualisiert werden.

Wie genau sind Unix-Timestamps?

Unix-Timestamps im Sekundenformat sind auf 1 Sekunde genau. Das Millisekundenformat bietet eine Genauigkeit von 0,001 Sekunden. Für noch höhere Präzision verwenden manche Systeme Mikrosekunden (16 Ziffern) oder Nanosekunden (19 Ziffern), obwohl diese weniger verbreitet sind. Die Genauigkeit hängt von der Synchronisation Ihrer Systemuhr ab.

Berücksichtigt der Unix-Timestamp Schaltsekunden?

Nein, Unix-Timestamps berücksichtigen keine Schaltsekunden. Es wird davon ausgegangen, dass jeder Tag genau 86.400 Sekunden hat, was Berechnungen vereinfacht, aber bedeutet, dass Unix-Zeit nicht exakt mit der atomaren Zeit (TAI) synchronisiert ist. Für die meisten Anwendungen ist dieser Unterschied vernachlässigbar und das vereinfachte System wird bevorzugt.

Kann ich Unix-Timestamps für alle Datums-/Zeitbedürfnisse verwenden?

Unix-Timestamps eignen sich hervorragend zum Speichern und Übertragen von Zeitdaten, aber für die Anzeige gegenüber Benutzern sollten Sie sie in lokale Zeitformate konvertieren. Sie sind ideal für Berechnungen, Sortierung und Datenspeicherung, aber menschenlesbare Formate wie ISO 8601 sind für Benutzeroberflächen und Protokolle besser geeignet.