У нас вы можете посмотреть бесплатно O que é ENTROPIA? Somente FEYNMAN conseguia explicar или скачать в максимальном доступном качестве, видео которое было загружено на ютуб. Для загрузки выберите вариант из формы ниже:
Если кнопки скачивания не
загрузились
НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если возникают проблемы со скачиванием видео, пожалуйста напишите в поддержку по адресу внизу
страницы.
Спасибо за использование сервиса ClipSaver.ru
Existe uma lei na física que nunca foi violada uma única vez em toda a história do universo observável. Ela governa desde a morte das estrelas até o motivo pelo qual você não consegue desmontar uma omelete de volta num ovo. Ela explica por que o tempo tem uma direção, por que você lembra do passado e não do futuro, por que a vida é possível e por que um dia não será mais. Ela se chama segunda lei da termodinâmica. E quase ninguém entende o que ela realmente diz. Nesse vídeo percorremos a entropia do zero — não a definição vaga de desordem que aparece nos livros didáticos e que Feynman considerava imprecisa de uma forma que importa, mas a definição real, estatística, que Ludwig Boltzmann construiu no século dezenove e que transformou a termodinâmica numa janela para a natureza mais profunda da realidade. O argumento do baralho de cartas que captura o essencial sem perder nenhuma precisão. O problema da reversibilidade que perseguiu Boltzmann até o fim da vida e que Feynman retomou com a mesma seriedade. A pergunta que a maioria das explicações populares ignora — não por que a entropia aumenta, mas por que ela era tão baixa no começo. A conexão entre entropia e memória que revela por que o passado é fixo e o futuro é aberto. A identidade matemática entre entropia e informação que Shannon descobriu em 1948 e que conecta termodinâmica, computação e física quântica numa única estrutura. No final, o que fica não é uma lei de decadência. É uma lei que explica por que qualquer coisa interessante existe — e até quando vai continuar existindo. 🔔 Se inscreve no canal e ativa o sino — aqui a gente leva as perguntas simples mais a sério do que elas parecem merecer. 💬 Nos comentários: se todas as leis da física funcionam igualmente para frente e para trás no tempo, por que você consegue lembrar do passado mas não do futuro? Tenta responder antes de assistir — e vê se a resposta muda no final. 📚 REFERÊNCIAS CONSULTADAS The Feynman Lectures on Physics — Volume I (1964) Referência central para a abordagem estatística da entropia e para a postura de Feynman diante das explicações que parecem funcionar mas escondem mais do que revelam. A discussão sobre a segunda lei e as condições iniciais do universo está documentada ao longo das aulas de termodinâmica e mecânica estatística. The Character of Physical Law (1964) Palestras de Feynman em Cornell onde ele discute a distinção entre leis que a natureza obedece e resultados que emergem de mecanismos mais profundos — base para o argumento sobre reversibilidade e a seta do tempo. "The Pleasure of Finding Things Out" (1999) Coletânea que inclui a postura documentada de Feynman sobre os limites do conhecimento atual e sobre a honestidade intelectual como método científico — diretamente relevante para a discussão sobre as condições iniciais do universo. Ludwig Boltzmann — Lectures on Gas Theory (1896) Fonte histórica para o desenvolvimento da interpretação estatística da entropia e para o problema da reversibilidade que os contemporâneos de Boltzmann usavam para atacar sua teoria. Claude Shannon — "A Mathematical Theory of Communication" (1948) Artigo original onde Shannon demonstra que a quantidade matemática que mede informação tem a mesma forma da entropia de Boltzmann — base para a discussão sobre a identidade entre entropia e informação na Parte 4. Roger Penrose — The Emperor's New Mind (1989) Referência para o cálculo da probabilidade extraordinariamente pequena do estado inicial de baixa entropia do universo — citado na discussão sobre as condições iniciais do Big Bang na Parte 3.