• ClipSaver
  • dtub.ru
ClipSaver
Русские видео
  • Смешные видео
  • Приколы
  • Обзоры
  • Новости
  • Тесты
  • Спорт
  • Любовь
  • Музыка
  • Разное
Сейчас в тренде
  • Фейгин лайф
  • Три кота
  • Самвел адамян
  • А4 ютуб
  • скачать бит
  • гитара с нуля
Иностранные видео
  • Funny Babies
  • Funny Sports
  • Funny Animals
  • Funny Pranks
  • Funny Magic
  • Funny Vines
  • Funny Virals
  • Funny K-Pop

CITP Seminar Stephan Rabanser - Towards a Science of AI Agent Reliability скачать в хорошем качестве

CITP Seminar Stephan Rabanser - Towards a Science of AI Agent Reliability 2 недели назад

скачать видео

скачать mp3

скачать mp4

поделиться

телефон с камерой

телефон с видео

бесплатно

загрузить,

Не удается загрузить Youtube-плеер. Проверьте блокировку Youtube в вашей сети.
Повторяем попытку...
CITP Seminar Stephan Rabanser - Towards a Science of AI Agent Reliability
  • Поделиться ВК
  • Поделиться в ОК
  •  
  •  


Скачать видео с ютуб по ссылке или смотреть без блокировок на сайте: CITP Seminar Stephan Rabanser - Towards a Science of AI Agent Reliability в качестве 4k

У нас вы можете посмотреть бесплатно CITP Seminar Stephan Rabanser - Towards a Science of AI Agent Reliability или скачать в максимальном доступном качестве, видео которое было загружено на ютуб. Для загрузки выберите вариант из формы ниже:

  • Информация по загрузке:

Скачать mp3 с ютуба отдельным файлом. Бесплатный рингтон CITP Seminar Stephan Rabanser - Towards a Science of AI Agent Reliability в формате MP3:


Если кнопки скачивания не загрузились НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если возникают проблемы со скачиванием видео, пожалуйста напишите в поддержку по адресу внизу страницы.
Спасибо за использование сервиса ClipSaver.ru



CITP Seminar Stephan Rabanser - Towards a Science of AI Agent Reliability

AI agents are increasingly performing consequential tasks autonomously: writing code, making purchases, and providing advice. But how do we know when to trust them? Current evaluation focuses predominantly on success rates: how often does the agent complete the task? This misses critical questions about how agents behave: Do they give the same answer twice? Do they fail gracefully when conditions change? Can they tell us when they’re likely to be wrong? Drawing on decades of practice from aviation, nuclear power, and other safety-critical domains, we propose a framework that decomposes reliability into four dimensions: consistency, robustness, predictability, and safety. Evaluating 12 frontier AI models, we find a striking result: despite rapid capability improvements over 18 months, reliability has barely budged. Agents that are substantially more accurate remain inconsistent across runs and poorly calibrated about their own uncertainty. The implication is clear: building capable AI is not the same as building dependable AI. As agents take on higher-stakes tasks, we need evaluation practices that ask not just “does it work?” but “can we count on it?” Bio: Stephan Rabanser works on trustworthy machine learning, with a particular focus on uncertainty quantification, selective prediction, and out-of-distribution generalization/robustness. At a high level, his research aims to improve the reliability of machine learning systems under uncertainty and distribution shift. Rabanser develops principled yet practical methods that help models understand what they know—and crucially, when they should abstain—whether by quantifying predictive uncertainty, deferring to expert models, or rejecting unfamiliar inputs. He also studies how models can generalize reliably under distribution shift, with applications ranging from out-of-distribution detection and time series anomaly detection to robustness in federated learning. A recurring theme of his research is to design intelligent systems that remain trustworthy even under imperfect or adversarial conditions, such as privacy constraints, limited data, or non-stationary environments. His current research explores how uncertainty can be designed and leveraged in large generative models to support more reliable decision-making and safer deployment. Rabanser holds a Ph.D. in computer science from the University of Toronto, an M.Sc. and a B.Sc. in informatics from the Technical University of Munich (TUM), and an Honours Degree in technology management from the Center for Digital Technology and Management (CDTM). Over the past years, he has held engineering and research positions at Amazon / AWS AI Labs and Google. Previously, Rabanser has also been a research visitor at the Massachusetts Institute of Technology (MIT), Carnegie Mellon University (CMU), and the University of Cambridge. Rabanser’s Google Scholar webpage In-person attendance is open to Princeton University faculty, staff and students. If you need an accommodation for a disability please contact Jean Butcher at butcher@princeton.edu at least one week prior to the event. Sponsorship of an event does not constitute institutional endorsement of external speakers or views presented.

Comments
  • CITP Seminar:  Mel Andrews -  False Promises & False Premises of Fair Machine Learning 2 месяца назад
    CITP Seminar: Mel Andrews - False Promises & False Premises of Fair Machine Learning
    Опубликовано: 2 месяца назад
  • Noah Golowich @ Theory Lunch 2 недели назад
    Noah Golowich @ Theory Lunch
    Опубликовано: 2 недели назад
  • OpenAI is Suddenly in Trouble 7 дней назад
    OpenAI is Suddenly in Trouble
    Опубликовано: 7 дней назад
  • ELLIS Unit Stuttgart - Invited Talk by Philipp Müller 9 дней назад
    ELLIS Unit Stuttgart - Invited Talk by Philipp Müller
    Опубликовано: 9 дней назад
  • Nvidia CEO Jensen Huang on AI's pressure on software stocks 2 дня назад
    Nvidia CEO Jensen Huang on AI's pressure on software stocks
    Опубликовано: 2 дня назад
  • SIKORSKI O FRAJERACH, A TUSK ODPYCHA USA? Atak na Iran z perspektywy Polski | Salonik Ziemkiewicza 2 часа назад
    SIKORSKI O FRAJERACH, A TUSK ODPYCHA USA? Atak na Iran z perspektywy Polski | Salonik Ziemkiewicza
    Опубликовано: 2 часа назад
  • Anthropic trying to put limitations on its AI models 'really has no standing', says Brent Sadler 1 день назад
    Anthropic trying to put limitations on its AI models 'really has no standing', says Brent Sadler
    Опубликовано: 1 день назад
  • Computer science perspectives on AI legal reasoning | Workshop on Law-Following AI 2025 9 дней назад
    Computer science perspectives on AI legal reasoning | Workshop on Law-Following AI 2025
    Опубликовано: 9 дней назад
  • Ziemkiewicz: „Druga młodość PRL-u”. Tusk idzie drogą Łukaszenki? 1 день назад
    Ziemkiewicz: „Druga młodość PRL-u”. Tusk idzie drogą Łukaszenki?
    Опубликовано: 1 день назад
  • LEKCJA ANGIELSKIEGO! TRZECIE ZWYCIĘSTWO Z RZĘDU PORTOWCÓW! POGOŃ - WIDZEW, SKRÓT MECZU 2 часа назад
    LEKCJA ANGIELSKIEGO! TRZECIE ZWYCIĘSTWO Z RZĘDU PORTOWCÓW! POGOŃ - WIDZEW, SKRÓT MECZU
    Опубликовано: 2 часа назад
  • MINECRAFT, ALE MÓJ EXP TO EWOLUCJA RYBY! 9 часов назад
    MINECRAFT, ALE MÓJ EXP TO EWOLUCJA RYBY!
    Опубликовано: 9 часов назад
  • Jak DROGÓWKA naciąga Polaków! (I jak legalnie się bronić) 1 день назад
    Jak DROGÓWKA naciąga Polaków! (I jak legalnie się bronić)
    Опубликовано: 1 день назад
  • CZY TVN ZMIENI WŁAŚCICIELA? Donald Trump zmienia zasady gry | Salonik Polityczny Ziemkiewicza 2 часа назад
    CZY TVN ZMIENI WŁAŚCICIELA? Donald Trump zmienia zasady gry | Salonik Polityczny Ziemkiewicza
    Опубликовано: 2 часа назад
  • Something Eerie Is Happening Inside AI First Social Network 2 дня назад
    Something Eerie Is Happening Inside AI First Social Network
    Опубликовано: 2 дня назад
  • Meissner & Kobierski - 2 часа назад
    Meissner & Kobierski - "Chińczycy zabiorą im ostatnie gacie". Wyciskają Rosjan jak cytrynę.
    Опубликовано: 2 часа назад
  • Параллелизм данных в глубоком обучении: основы и стратегии оптимизации | Uplatz 5 дней назад
    Параллелизм данных в глубоком обучении: основы и стратегии оптимизации | Uplatz
    Опубликовано: 5 дней назад
  • Professor Maarten Sap: Enabling Human-centric and Culturally Aware Safety of AI Agents 8 дней назад
    Professor Maarten Sap: Enabling Human-centric and Culturally Aware Safety of AI Agents
    Опубликовано: 8 дней назад
  • PILNE! Iran płonie, rozpoczął się atak. Andrzej Gąsiorowski i Jan Piński LIVE 17 Трансляция закончилась 5 часов назад
    PILNE! Iran płonie, rozpoczął się atak. Andrzej Gąsiorowski i Jan Piński LIVE 17
    Опубликовано: Трансляция закончилась 5 часов назад
  • Dlaczego USA i Izrael zaatakowały Iran? Atak na Iranie - co się dzieje? 6 часов назад
    Dlaczego USA i Izrael zaatakowały Iran? Atak na Iranie - co się dzieje?
    Опубликовано: 6 часов назад
  • “Transforming Physics Assessments using Generative AI 2 недели назад
    “Transforming Physics Assessments using Generative AI" - Zhongzhou Chen
    Опубликовано: 2 недели назад

Контактный email для правообладателей: u2beadvert@gmail.com © 2017 - 2026

Отказ от ответственности - Disclaimer Правообладателям - DMCA Условия использования сайта - TOS



Карта сайта 1 Карта сайта 2 Карта сайта 3 Карта сайта 4 Карта сайта 5