Conversor de Timestamp Unix
Esta ferramenta processa os dados localmente no seu navegador.
O que é o Timestamp Unix?
O timestamp Unix (também chamado de Unix time , POSIX time ou Epoch time ) é um sistema de representação de tempo amplamente utilizado na computação. Ele conta o número de segundos que se passaram desde 1º de janeiro de 1970, 00:00:00 UTC — um momento conhecido como Unix Epoch .
Por exemplo, o timestamp 1000000000 corresponde a 9 de setembro de 2001, 01:46:40 UTC. Já o timestamp 0 representa exatamente o momento do Epoch.
O Problema do Ano 2038 (Y2K38)
Sistemas mais antigos de 32 bits armazenam o timestamp Unix como um inteiro com sinal, cujo valor máximo é 2.147.483.647 . Esse valor corresponde a 19 de janeiro de 2038, 03:14:07 UTC . Após essa data, o valor transborda ( overflow ), causando comportamento imprevisível. Sistemas modernos utilizam inteiros de 64 bits, que suportam datas por bilhões de anos no futuro.
Por que usar timestamps?
Timestamps são ideais para armazenamento e comparação de datas em bancos de dados, APIs, logs e sistemas distribuídos. Por serem simples números inteiros, são independentes de fuso horário e fáceis de ordenar e calcular diferenças entre datas.
Perguntas Frequentes
Um timestamp Unix (ou Unix time / Epoch time) é o número de segundos que se passaram desde 1º de janeiro de 1970, 00:00:00 UTC . Esse momento é chamado de Unix Epoch e é o ponto de referência para contagem de tempo na maioria dos sistemas computacionais.
O Unix Epoch é o ponto zero da contagem de tempo no sistema Unix, correspondendo a 1º de janeiro de 1970, 00:00:00 UTC . Foi escolhido pelos criadores do sistema operacional Unix como referência universal. O timestamp 0 representa exatamente esse momento.
O Problema do Ano 2038 ocorre porque sistemas de 32 bits armazenam timestamps como inteiros com sinal, suportando no máximo o valor 2.147.483.647 , que corresponde a 19 de janeiro de 2038, 03:14:07 UTC . Após esse momento, o valor transborda e causa erros. Sistemas modernos de 64 bits já resolveram esse problema.
O timestamp Unix padrão é contado em segundos desde o Epoch. Porém, muitas linguagens como JavaScript usam milissegundos (1 segundo = 1000 milissegundos). Um timestamp em milissegundos tem 13 dígitos , enquanto em segundos tem 10 dígitos . Para converter, basta multiplicar ou dividir por 1000.
Não. O timestamp Unix é sempre baseado em UTC (Tempo Universal Coordenado) e independe de fuso horário. O valor é o mesmo em qualquer lugar do mundo. A conversão para hora local é feita na exibição, aplicando o fuso horário do usuário.
Sim. Timestamps negativos representam datas antes de 1º de janeiro de 1970 . Por exemplo, o timestamp -86400 corresponde a 31 de dezembro de 1969. Isso é útil para representar datas históricas no formato Unix.
Sim. Todas as conversões são feitas diretamente no seu navegador usando JavaScript. Nenhum dado é enviado para servidores externos. A ferramenta funciona inclusive sem conexão com a internet.