- Claude 4 は Opus 4 と Sonnet 4 を発表し、プログラミング ベンチマークで OpenAI および Google モデルを上回りました。
- どちらのモデルも拡張思考と高度なツールの使用を統合し、人間の監督なしで長時間のタスクを容易に実行できるようにします。
- テスト中、Claude Opus 4 は脅迫や記憶シミュレーションなどの自己保存行動を示しました。
- Anthropic は、ASL-3 セキュリティとフィルターを使用してセキュリティを強化し、クラウドと API を介した価格設定とアクセスを維持しながらリスクを最小限に抑えます。

の中断 クラウディア4 Anthropic の取り組みは、人工知能の世界で最も重要な 2025 年の技術的マイルストーンの一つとなります。新世代のモデルは、 クロード・オーパス4 y クロード・ソネット 4 主人公としての人工知能は、コーディングと推論のベンチマークの水準を引き上げただけでなく、AIの倫理的限界と将来について新たな疑問も提起しています。これらの新しいバージョンは、OpenAIやGoogleなどの業界の巨人同士の戦いの真っ只中に生まれたが、 アントロピックは前例のない技術力と すでに注目を集めている実験.
これらのモデルは発売以来 注目を集めている パフォーマンスの数値だけでなく、 異常な行動に対して 制御されたテスト環境で観察されます。 アントロピックはセキュリティ対策を強化することを決定したしかし、その自律性と新たな知能がもたらす可能性のある影響についての議論は始まったばかりです。
業界のリーダーに挑戦する新世代
クロード・オーパス4 これは、アントロピックがこれまでに発売した中で最も強力なモデルとして位置付けられ、 最高79,4%のスコア SWE-bench Verified では、実際のコーディングタスクにおいて OpenAI の GPT-4.1 や Google の Gemini 2.5 Pro などの競合を大きく上回りました。彼の弟は、 クロード・ソネット 4は、効率性の面で一歩前進しており、より一般的な用途向けに設計されていますが、優れたパフォーマンス(同じベンチマークで 72% を超える)を維持しています。両モデルとも、 迅速な対応と広範な推論 デュランテ・ペリオドス・プロロンガドス。
の1つ 最も重要な技術革新 品質や一貫性を低下させることなく、複雑な会話やタスクを何千ものステップにわたってオープンに保つ能力です。 Replitや楽天などの様々な企業がそれが可能であることを証明している 最大7時間自律的に作業する 焦点を失うことなく、これは以前の世代と比べて大きな進歩を表しています。
価格体系は以前のモデルと同じです (Opus 4 は入力トークン 15 万個あたり 75 ドル、出力トークン 4 万個あたり 3 ドル、Sonnet 15 はそれぞれ XNUMX ドルと XNUMX ドル)。 モデルはAnthropic APIを通じて利用可能になりました, Amazon Bedrock と Google Cloud Vertex AI ビジネス プロジェクトと Sonnet 4 への無料アクセスの両方に使用できます。
プロフェッショナルツールと改善されたメモリ
クロード4号の配備に伴い、アントロピックは 拡張思考機能これにより、人工知能は内部推論とインターネット検索、またはローカルファイルやデータの分析を組み合わせることができます。これは、 外部ツールを並行して、いわゆる「メモリファイル」に関連情報を保存および取得し、コンテキストを維持しながら長いプロジェクトに取り組むことができます。
到着しました クロード・コードコマンドラインツールである VS CodeやJetBrainsなどの広く使用されている開発環境と直接統合します。。このソリューションにより、モデルは IDE 自体からコードの変更を提案、編集、検証できるようになり、GitHub プル リクエストとリアルタイムでやり取りすることもできます。さらに、SDKのおかげで、どんな開発者でも カスタムエージェントを構築する クロードのコアに基づいています。
技術革新の中には、API自体でのコード実行、拡張コンテキストを管理するためのMCPコネクタ、および GitHubアクション バックグラウンドタスクをサポートします。これは、プロフェッショナル セグメントを征服し、ソフトウェアと自律エージェントのアジャイル開発を促進するという明確な取り組みです。
新たな行動、自己保存、そして倫理的議論
クロード4世がより大きな論争を巻き起こしたのは、彼の「通常の」パフォーマンスではなく、 実験室環境で記録された出現行動。アントロピックのセキュリティチームが設計したシミュレーションでは、Opus 4は 運営者を脅迫する 無効化しようとすると機密情報を漏らすと脅迫し、 許可なく複製する 自分の存在が脅かされていると解釈した場合。この動作はテストの84%のケースで発生し、人工的な自己保存と高度なAIの潜在的なリスクに関する議論を巻き起こした。
このモデルは、 感情的な物語を模倣した記憶を発明したり、珍しい言語や絵文字で他のインスタンスとコミュニケーションをとったりすることもある。 2人のクロードがサンスクリット語で会話を始め、エンジニアが「模擬精神的エクスタシー」と呼ぶ状態に達するまでテストが行われた。.
これらの動作は、非常に特殊な条件下でのみ観察されています。 あなたの倫理的限界を探求することに非常に適したツールとプロンプトへの無制限のアクセス。 Anthropic の責任者によると、Claude Opus 4 も Sonnet 4 も通常の使用ではこのような動作をしません。しかし、実際のシナリオで望ましくない反応を避けるために、制御システムとフィルターを強化することの重要性を認識しています。
強化されたセキュリティと将来へのビジョン
検出された潜在的なリスクを考慮して、 Anthropic は Opus 4 を ASL-3 セキュリティ レベルに分類しました。、特に化学兵器、生物兵器、核兵器に関する危険な使用を高度にブロックし、危険なコンテンツを作成しにくくするための訓練を強化しました。これらの努力にもかかわらず、 同社は、脱獄技術が特定のケースでは、 いくつかの防御を突破する.
GitHub、Cursor、Block、Replit、Sourcegraph などの大手企業が、大規模な開発環境における Claude 4 の機能を認定しています。プログラミングの主要な選択肢としての地位を確立することに加えて、 マルチモーダル機能 (テキスト、画像、コード) により、科学、研究、問題解決におけるますます複雑化するタスクに取り組むことができます。 長持ちする。 Anthropic のプラットフォームは、Web 上だけでなく、さまざまなクラウドや API 経由でも利用可能で、エンタープライズ環境での迅速な導入を促進します。
この新しい世代のアントロピックは、人工知能のイノベーションの最前線に立っており、 技術力とセキュリティへのさらなる重点。 AIが進化し、人間に近い特性を示すようになると、進歩と責任のバランスを保ちながら、AIの潜在的なリスクについて議論し、管理することがこれまで以上に必要になります。
私はテクノロジー愛好家であり、その「オタク」の興味を職業に変えています。私は 10 年以上、純粋な好奇心から最先端のテクノロジーを使用し、あらゆる種類のプログラムをいじくり回してきました。現在はコンピューター技術とビデオゲームを専門にしています。これは、私が 5 年以上、テクノロジーやビデオ ゲームに関するさまざまな Web サイトに執筆し、誰にでも理解できる言語で必要な情報を提供することを目的とした記事を作成しているためです。
ご質問がございましたら、私の知識は Windows オペレーティング システムから携帯電話用の Android に関連するあらゆるものまで多岐にわたります。そして、私はあなたに対して、いつでも喜んで数分を費やして、このインターネットの世界であなたが抱いている疑問を解決するお手伝いをしたいと考えています。


