• ClipSaver
ClipSaver
Русские видео
  • Смешные видео
  • Приколы
  • Обзоры
  • Новости
  • Тесты
  • Спорт
  • Любовь
  • Музыка
  • Разное
Сейчас в тренде
  • Фейгин лайф
  • Три кота
  • Самвел адамян
  • А4 ютуб
  • скачать бит
  • гитара с нуля
Иностранные видео
  • Funny Babies
  • Funny Sports
  • Funny Animals
  • Funny Pranks
  • Funny Magic
  • Funny Vines
  • Funny Virals
  • Funny K-Pop

La paradoja de la información y la teoría de Shannon скачать в хорошем качестве

La paradoja de la información y la teoría de Shannon 2 years ago

teoría de la información

shannon

claude

entropia

byte

computacion

matematicas

fisica

aleatorio

random

ciencia

Не удается загрузить Youtube-плеер. Проверьте блокировку Youtube в вашей сети.
Повторяем попытку...
La paradoja de la información y la teoría de Shannon
  • Поделиться ВК
  • Поделиться в ОК
  •  
  •  


Скачать видео с ютуб по ссылке или смотреть без блокировок на сайте: La paradoja de la información y la teoría de Shannon в качестве 4k

У нас вы можете посмотреть бесплатно La paradoja de la información y la teoría de Shannon или скачать в максимальном доступном качестве, видео которое было загружено на ютуб. Для загрузки выберите вариант из формы ниже:

  • Информация по загрузке:

Скачать mp3 с ютуба отдельным файлом. Бесплатный рингтон La paradoja de la información y la teoría de Shannon в формате MP3:


Если кнопки скачивания не загрузились НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если возникают проблемы со скачиванием видео, пожалуйста напишите в поддержку по адресу внизу страницы.
Спасибо за использование сервиса ClipSaver.ru



La paradoja de la información y la teoría de Shannon

El robo de un banco en 1907, un ladrón que huye a Londres y un problema gordo para atraparlo. Estos son los ingredientes para introducir animadamente la teoría de la información de Shannon y su fórmula de la entropía. * * * Pequeño índice: 00:00 - Introducción 01:40 - La información se mide en bits 06:03 - La fórmula de la sorpresa 11:35 - ¿Y qué hacemos con esto? 13:35 - En el ADN * * * Instagram:   / lemnismath   Twitter:   / lemnismath   * * * Como has continuado la lectura hasta aquí, te cuento un poco más. Hay muchos artículos en blogs de Internet que afirman que el Quién es Quién se puede ganar con solo seis preguntas. Y le dedican largas parrafadas a demostrarlo. Si haces las cuentas con la fórmula de la información, verás que solo necesitas cinco preguntas para ganar (con un poco de suerte, solo cuatro). Lemnismath - ------------- Bibliografía y referencias --------------- [1] New York Times, 1907. https://en.wikisource.org/wiki/The_Ne... [2] Me refiero a A Mathematical Theory of Communication, C. E. Shannon (1948). https://ieeexplore.ieee.org/document/... He cambiado el título por cuestiones estéticas. --------------------------------------- [3] Definición de bit. https://en.wikipedia.org/wiki/Bit Deberíamos añadir que el bit es la respuesta ante una pregunta de sí/no solo cuando ambas opciones son equiprobables. Lo malo es que aún no hemos introducido la probabilidad en la teoría. [4] Plutón no es planeta (según la IAU, ejem, ejem): https://www.iau.org/news/pressrelease... [5] El logaritmo te dice el número de preguntas si la cantidad de opciones es una potencia de dos. En el resto de casos devuelve un valor con decimales. Es una generalización derivada de la potenciación en el caso continuo (pero si has entendido esta frase, entonces no creo que te resulte raro pensar en preguntas irracionales). [6] Sobre la cantidad de caracteres de un tuit,   / counting-characters   [7] No hago diferencias entre preguntas y respuestas, y quizá debería. Entiéndase que lo que da información es la respuesta, pero esta proviene de una pregunta contestada. [8] Telegraphing Pictures, T. Thorne Baker (1909). https://www.jstor.org/stable/41338909 [9] Shannon no "detecta" esta paradoja directamente en su trabajo original: deduce una fórmula que la evita, sin más circunloquios. ------------------------------------------ [10] No es la fórmula de Shannon. Se deduce de su teoría, pero él no la menciona en su trabajo original. Es una intepretación posterior, y un recurso pedagógico. [11] Las tres preguntas del ejemplo inicial. [12] En este vídeo, la interpretación de la probabilidad es de tipo frecuencial. [13] Esta debería ser la definición de bit, ahora que hemos introducido la interpretación probabilística. [14] The security of customer-chosen banking PINs. https://www.ifca.ai/pub/fc12/73970024... [15] Sobre la frecuencia de las letras del español: https://www.worldcat.org/es/title/795065 https://www.sttmedia.com/characterfre... [16] Se considera que 0×log(1/0) es cero. La sorpresa de encontrar algo con probabilidad 0 es infinita, PERO nunca te encontrarás algo así. Y, si lo encuentras, que Dios te pille confesado. --------------------------------------------- [17] Este es un caso especial, donde p=1 y la información puede considerarse nula. [18] Este "mínima" es peligroso: podrías adivinar el mensaje por casualidad con una sola pregunta. Si el código se crea en función de un mensaje particular, la fórmula de Shannon te da la cantidad mínima de preguntas con una seguridad del 100% (es decir, sin recurrir a la suerte o al azar). Si quieres usar un código genérico (por ej., el códgo morse) para una familia de mensajes (telegramas en español), el "mínima" pierde sentido y la interpretación debe ser estadística, atendiendo a los teoremas de Shannon. [19] Se consigue la igualdad si y solo si todas las probabilidades son iguales, p=1/n. [20] Un análisis interesante sobre la información de cada letra en español (lo que se conoce como entropía del español). On the Entropy of Written Spanish, F. G. Guerrero (2012). http://www.scielo.org.co/pdf/rce/v35n... [21] Tomado de Wheel Of Fortune (1997). Es obvio, pero Internet nunca deja de sorprenderme, así que lo aclaro: he adulterado las imágenes. NO es el panel original. [22] Lecture 6: Entropy. https://scholar.harvard.edu/files/sch... [23] Un resumen general y recomendable es el de Establishing the Triplet Nature of the Genetic Code, C. Yanofsky (2007) https://doi.org/10.1016/j.cell.2007.0...

Comments
  • Una bonita relación entre grafos y números binarios  | Ciclos de De Bruijn 1 year ago
    Una bonita relación entre grafos y números binarios | Ciclos de De Bruijn
    Опубликовано: 1 year ago
    164615
  • El teorema del secreto perfecto | Criptografía 1 year ago
    El teorema del secreto perfecto | Criptografía
    Опубликовано: 1 year ago
    191252
  • Por qué necesitamos años trisiestos | Las matemáticas del calendario 3 years ago
    Por qué necesitamos años trisiestos | Las matemáticas del calendario
    Опубликовано: 3 years ago
    661462
  • HOY SÍ que vas a entender la ENTROPÍA 5 years ago
    HOY SÍ que vas a entender la ENTROPÍA
    Опубликовано: 5 years ago
    1964275
  • Lo que el Dilema del Prisionero Revela Sobre la Vida, el Universo y Todo lo Demás 1 year ago
    Lo que el Dilema del Prisionero Revela Sobre la Vida, el Universo y Todo lo Demás
    Опубликовано: 1 year ago
    2079968
  • How might LLMs store facts | DL7 8 months ago
    How might LLMs store facts | DL7
    Опубликовано: 8 months ago
    1359628
  • Как один человек уничтожил треть страны. Дикая история Пол Пота | ФАЙБ 5 days ago
    Как один человек уничтожил треть страны. Дикая история Пол Пота | ФАЙБ
    Опубликовано: 5 days ago
    840130
  • Music for Work — Deep Focus Mix for Programming, Coding 8 months ago
    Music for Work — Deep Focus Mix for Programming, Coding
    Опубликовано: 8 months ago
    930770
  • The mind behind Linux | Linus Torvalds | TED 9 years ago
    The mind behind Linux | Linus Torvalds | TED
    Опубликовано: 9 years ago
    6063766
  • Programming ▫️ Coding ▫️ Hacking ▫️ Designing Music 🦠 9 months ago
    Programming ▫️ Coding ▫️ Hacking ▫️ Designing Music 🦠
    Опубликовано: 9 months ago
    1164508

Контактный email для правообладателей: [email protected] © 2017 - 2025

Отказ от ответственности - Disclaimer Правообладателям - DMCA Условия использования сайта - TOS