🔴 重要AI・機械学習

Anthropic、AI研究機関「The Anthropic Institute」を設立し、Verceptを買収。責任あるAIスケーリングポリシーをv3.0に更新し、蒸留攻撃を検出・防止、サイバーセキュリティ機能を強化

2026年3月11日 10:33www.anthropic.com
共有:
広告
要約

Anthropicは、強力なAIが社会にもたらす課題に対処するため「The Anthropic Institute」を設立しました。また、Claudeのコンピュータ利用能力を向上させるためVerceptを買収し、責任あるAIスケーリングポリシーをv3.0に更新。さらに、DeepSeek、Moonshot、MiniMaxによる大規模な蒸留攻撃を検出し、その防止策を強化するとともに、Claude Code Securityを通じて最先端のサイバーセキュリティ機能を防御側に提供開始しました。これらの動きは、AIの急速な進化に伴うリスク管理と安全なAI開発へのAnthropicのコミットメントを示しています。

ポイント

  • 1Anthropicは、強力なAIが社会に与える影響を研究し、課題に対処するための学際的な研究機関「The Anthropic Institute」を2026年3月11日に設立しました。
  • 22026年2月25日、AnthropicはAIの知覚とインタラクションの専門知識を持つVerceptを買収し、Claudeのコンピュータ利用能力を大幅に強化しました。これにより、Claude Sonnet 4.6はOSWorld評価で72.5%のスコアを達成し、人間レベルのパフォーマンスに近づいています。
  • 32026年2月24日、AnthropicはAIシステムの壊滅的なリスクを軽減するための自主的な枠組みである「責任あるスケーリングポリシー(RSP)」をバージョン3.0に更新しました。これにより、透明性と説明責任が強化され、より現実的な単独コミットメントが導入されました。
  • 42026年2月23日、AnthropicはDeepSeek、Moonshot、MiniMaxの3つのAI研究所によるClaudeの機能不正抽出(蒸留攻撃)を検出し、1600万回以上の不正なやり取りを特定しました。Anthropicは、検出システムの強化、情報共有、アクセス制御、対策開発を通じてこれらの攻撃に対処しています。
  • 52026年2月20日、AnthropicはClaude Codeに組み込まれた新機能「Claude Code Security」を発表しました。これは、コードベースのセキュリティ脆弱性をスキャンし、人間によるレビューのための修正パッチを提案するもので、EnterpriseおよびTeam顧客向けに限定的な研究プレビューとして提供されます。
💡インサイト

Anthropicの一連の発表は、AI業界が性能競争から「安全性と信頼性」を重視する新時代へ移行していることを象美徴しています。研究所設立やポリシー更新は、競合他社にも同様の取り組みを促し、業界全体の安全基準を引き上げる可能性があります。特に、中国AI企業による大規模な蒸留攻撃を検出し公表したことは、脅威への具体的な対策と透明性を業界に示すものです。Vercept買収によるAIエージェント機能の強化は、2026年の重要トレンドと合致しており、PC操作の自動化といった実用的な応用を加速させます。企業ユーザーは、強化されたセキュリティとエージェント機能を持つClaudeをより安心して導入でき、特に金融や公的機関など信頼性が重視される分野での活用が期待されます。今後は「安全なAI」のリーダーとしての地位を固め、その動向は業界標準や政策にも影響を与えるでしょう。

#Anthropic#AI#Claude#セキュリティ#政策#買収#研究機関
広告
共有:

このようなニュースを自動で受け取りませんか?

気になるWebページを登録するだけで、変更をAIが記事にしてお届けします

無料で始める