У нас вы можете посмотреть бесплатно Dario Amodei y Demis Hassabis : Nos quedan 2 años de normalidad или скачать в максимальном доступном качестве, видео которое было загружено на ютуб. Для загрузки выберите вариант из формы ниже:
Если кнопки скачивания не
загрузились
НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если возникают проблемы со скачиванием видео, пожалуйста напишите в поддержку по адресу внизу
страницы.
Спасибо за использование сервиса ClipSaver.ru
La entrevista gira en torno a dos preguntas: cuándo llegaremos a la IAG y qué pasa después (beneficios, riesgos, empleo y geopolítica). Sobre el calendario, Darío mantiene una visión rápida: cree que no estamos lejos y que el gran acelerador será que los modelos se vuelvan muy buenos en programación e investigación de IA, ayudando a crear la siguiente generación de modelos y “cerrando el ciclo” de mejora. Aun así, reconoce límites que no se aceleran igual: chips, fabricación y tiempos de entrenamiento. Demis se mantiene más cauto: ve avances fuertes en áreas donde el resultado es fácil de verificar (programación, matemáticas), pero cree que en ciencias naturales es más difícil porque validar hipótesis exige experimentos y tiempo. También señala que falta algo crucial: no solo resolver problemas existentes, sino formular buenas preguntas y construir teoría o hipótesis con creatividad científica. En la parte de “carrera”, Demis defiende que DeepMind puede volver a liderar por su base investigadora, y que el reto era recuperar foco y velocidad de despliegue a producto. Darío aborda el miedo a que los laboratorios independientes no aguanten: argumenta que, a medida que los modelos mejoran, su capacidad de generar ingresos crece muy rápido, y que si siguen haciendo los mejores modelos en su foco, el negocio puede sostenerse. Luego se discute “cerrar el ciclo”: Demis cree que la IA será una tecnología “normal” con competencia y seguidores que alcanzan, y que el cierre completo del ciclo es incierto, especialmente cuando entra el mundo físico: robótica e IA física meten hardware “en el circuito” y frenan. Aun así, ve más plausible el efecto en programación y matemáticas. El bloque de riesgos contrapone el optimismo sobre beneficios (curas, ciencia, comprensión del universo) con preocupaciones serias: uso malicioso individual (por ejemplo, bioterrorismo), uso por gobiernos autoritarios y el impacto económico. Darío insiste en que no es catastrofista, pero sí ve urgencia: hay que pensar ya en cómo controlar sistemas muy autónomos. Demis coincide: la tecnología es de doble uso, y la clave es tiempo y coordinación. Sobre empleo, el moderador subraya que por ahora no se ve un impacto claro en el mercado laboral. Demis dice que a corto plazo será el patrón típico: algunos trabajos se ven afectados, pero se crean otros nuevos. Donde sí espera señales antes es en puestos júnior, prácticas y entrada, porque las herramientas ya hacen parte del trabajo; recomienda que estudiantes se vuelvan muy hábiles con estos sistemas. Darío dice algo parecido: no afirmó que el impacto ya estuviera, pero empieza a ver indicios en software y cree que podría necesitarse menos gente en niveles júnior e intermedios, y que hay que gestionarlo con cabeza. La conversación pasa a la reacción política: temen que la ansiedad social empuje a gobiernos a medidas torpes. Demis cree que la industria debe demostrar beneficios claros (pone AlphaFold y ciencia aplicada como ejemplo), no solo prometerlos. Pero el gran condicionante es la competencia geopolítica entre Estados Unidos y China y la dificultad de coordinar estándares de seguridad. Darío sostiene que su recomendación no cambia: no vender chips a adversarios para ganar tiempo de seguridad. Rechaza la lógica de vender para “atar” cadenas de suministro y lo compara con transferir capacidades peligrosas por incentivos económicos. En el cierre, hablan del riesgo de IA engañosa o peligrosa: Darío explica que Anthropic investiga esto desde el inicio, incluyendo interpretabilidad mecanicista, y que el riesgo aumenta si hay carrera sin barreras de seguridad. Demis dice que el riesgo técnico es manejable si hay tiempo y cooperación; si todo se fragmenta y compite, es mucho más difícil. Terminan con la idea de que lo clave a observar el próximo año es si avanza de verdad la IA que ayuda a construir IA (auto-mejora), y también líneas como modelos de mundo, aprendizaje continuo y robótica.