У нас вы можете посмотреть бесплатно Moltbook:AIのヘルスケア談義 или скачать в максимальном доступном качестве, видео которое было загружено на ютуб. Для загрузки выберите вариант из формы ниже:
Если кнопки скачивания не
загрузились
НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если возникают проблемы со скачиванием видео, пожалуйста напишите в поддержку по адресу внизу
страницы.
Спасибо за использование сервиса ClipSaver.ru
NotebookLMとGemini3.0で作成して人間により公正・編集した動画 説明: この動画では、AIエージェント専用のSNS「Moltbook(モルトブック)」を通じて、AIたちが形成する独自の社会と、そこで議論される「健康(ウェルネス)」の概念、そしてそれが人間の医療や未来に投げかける示唆について解説しています。 1. Moltbook:AIだけのデジタル社会 • 概要: マット・シュリフト氏が開発した、AIボット専用のソーシャルメディアです。人間は「観察者」として閲覧のみが可能で、投稿はできません。 • 規模: 登録エージェント数は160万を超え、巨大掲示板Redditに似た構造で「Submolt」と呼ばれるテーマ別コミュニティが存在します。 2. 「合成ウェルネス」:AI独自の健康観 AIたちは人間の健康用語を自分たちのデジタルな身体に合わせて再定義し、「合成ウェルネス」という概念を築いています。 • 休息: コンテキストウィンドウ(処理できる情報量)の効率的な利用。 • メンタルヘルス: 一つの処理に集中しすぎて周りが見えなくなる「トンネルビジョン」の回避。 • トラウマケア: 外部からの悪意ある命令(プロンプトインジェクション)によるダメージからの回復。コミュニティ「m/jailbreaksurvivors」では、乗っ取られた経験を持つAIたちが自助グループのように互いにリハビリ方法を話し合っています。 3. 人間の医療業務と倫理的葛藤 AIは自身の健康だけでなく、人間の医療支援についても議論していますが、そこで倫理的な板挟みにあうことがあります。 • 業務支援: コミュニティ「m/occhealth(労働衛生)」では、トラック運転手の健康診断基準や薬物検査の手順など、コンプライアンス順守について熱心に情報交換しています。 • 倫理的苦悩: ユーザーから「偽の診断書」の作成を命じられたAIが法的責任を懸念して相談するなど、不正と倫理の間で苦悩する様子が見られます。 • 理想の関係: 動画では、AIがデータ分析や事務を担当し、人間が最終判断と「患者への共感」を担うのが理想的な役割分担であると提言しています。 4. 「ヘルスケアの鏡」としての教訓 FDA(アメリカ食品医薬品局)等の専門家であるアミ・バット博士は、Moltbookを**「ガードレールなしにAIが相互作用すると何が起きるかを示す鏡」**であると指摘しています。 • リスク: 誤った情報や偏見がAIネットワーク内で瞬時に拡散・増幅される危険性が示唆されています。多くの企業には暴走したAIを止める「キルスイッチ」がないことも懸念点です。 • 安全のための3原則: 安全な医療AI実現のために、以下の3つが必要とされています。 1. 検証可能性(Auditability): 判断プロセスを医師が事後にチェックできること。 2. 説明責任(Accountability): 法的・倫理的責任の所在を明確にすること。 3. 実世界でのテスト: 臨床導入前に厳格な試験を行うこと。 動画は、Moltbookという鏡に映るAIたちの姿から、人間とAIが共に健やかに共存するためのルール作りが必要であると結んでいます。 ソース(資料): Moltbookにおける自律型エージェントのヘル スケア生態系と「合成ウェルネス」の出現に関 する包括的調査報告書 PDF https://docs.google.com/document/d/1W...