<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>カテゴリーなし - Cody - The AI Trained on Your Business</title>
	<atom:link href="https://meetcody.ai/ja/blog/category/%E3%82%AB%E3%83%86%E3%82%B4%E3%83%AA%E3%83%BC%E3%81%AA%E3%81%97/feed/" rel="self" type="application/rss+xml" />
	<link></link>
	<description>AI Powered Knowledge Base for Employees</description>
	<lastBuildDate>Thu, 26 Mar 2026 18:07:54 +0000</lastBuildDate>
	<language>ja</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.8.1</generator>

<image>
	<url>https://meetcody.ai/wp-content/uploads/2025/08/cropped-Cody-Emoji-071-32x32.png</url>
	<title>カテゴリーなし - Cody - The AI Trained on Your Business</title>
	<link></link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>Gemini Embedding 2：グーグル初のマルチモーダル埋め込みモデル</title>
		<link>https://meetcody.ai/ja/blog/gemini-embedding-2%ef%bc%9a%e3%82%b0%e3%83%bc%e3%82%b0%e3%83%ab%e5%88%9d%e3%81%ae%e3%83%9e%e3%83%ab%e3%83%81%e3%83%a2%e3%83%bc%e3%83%80%e3%83%ab%e5%9f%8b%e3%82%81%e8%be%bc%e3%81%bf%e3%83%a2%e3%83%87/</link>
		
		<dc:creator><![CDATA[Om Kamath]]></dc:creator>
		<pubDate>Tue, 24 Mar 2026 03:02:17 +0000</pubDate>
				<category><![CDATA[カテゴリーなし]]></category>
		<guid isPermaLink="false">https://meetcody.ai/blog/gemini-embedding-2%ef%bc%9a%e3%82%b0%e3%83%bc%e3%82%b0%e3%83%ab%e5%88%9d%e3%81%ae%e3%83%9e%e3%83%ab%e3%83%81%e3%83%a2%e3%83%bc%e3%83%80%e3%83%ab%e5%9f%8b%e3%82%81%e8%be%bc%e3%81%bf%e3%83%a2%e3%83%87/</guid>

					<description><![CDATA[<p>Gemini Embedding 2：機能、ベンチマーク、価格、開始方法 先週、グーグルは ジェミニ エンベッディング2は、Geminiアーキテクチャ上に構築された初のネイティブなマルチモーダルエンベッディングモデルである。エンベッディングを何らかの形で扱うのであれば、これは注目に値する。これは、今日ほとんどのチームが依存しているマルチモデルのエンベッディングパイプラインを大きく破壊する可能性を秘めています。 これまで、OpenAI、Cohere、Voyageの主要な埋め込みモデルは、主にテキストベースでした。画像とテキストのアライメントにはCLIP、画像とビデオにはVoyage Multimodal 3.5など、いくつかのマルチモーダル・オプションは存在しましたが、単一の統一されたベクトル空間で、あらゆるモダリティをカバーするものはありませんでした。音声は通常、埋め込む前に書き起こす必要があった。ビデオでは、フレーム抽出と個別のトランスクリプト埋め込みが必要でした。画像は、完全に独自のベクトル空間に存在していました。 Gemini Embedding 2はその方程式を変える。1つのモデル、1つのAPIコール、1つのベクトル空間。 新情報を掘り下げてみよう。 Gemini Embedding 2とは何ですか？ Gemini Embedding 2(gemini-embedding-2-preview) は、Google DeepMind初の完全なマルチモーダル埋め込みモデルである。テキスト、画像、ビデオクリップ、音声記録、PDF文書を取り込み、それらすべてを同じ共有意味空間に存在するベクトルに変換する。 CLIPのような以前のマルチモーダルアプローチは、ビジョンエンコーダとテキストエンコーダをペアにして、最後に対比学習でそれらを調整するものであったが、Gemini Embedding 2は、Geminiの基礎モデルそのものに基づいて構築されている。これは、深いクロスモーダル理解を基礎から受け継いでいることを意味する。 実例ビデオチュートリアル、オーディオレクチャー、文書によるガイドで学習管理システム（LMS）を構築しているとします。Gemini Embedding 2を使用すると、これらすべてのコンテンツのエンベッディングを単一のベクトル空間に格納し、ビデオ、オーディオ、ドキュメントから関連するチャンクを取得するRAGベースのチャットボットを構築することができます。これまでは、何層ものエンベッディングパイプラインが必要でしたが、それでも、トランスクリプトをキャプチャするだけで、ビデオのビジュアルコンテキストやスピーカーの声のトーンを逃していました。 このモデルはマトリョーシカ表現学習を使用しているため、必要なければ3072次元すべてを使用する必要はない。1536や768に縮小しても、使用可能な結果を得ることができる。 マトリョーシカ表現学習(MRL)は、学習された表現が完全な次元だけでなく、ロシアのマトリョーシカ人形のように互いに入れ子になっている様々な小さな次元でも有用であるように、埋め込みモデルを学習する手法です。学習中、損失関数は完全な埋め込みだけでなく、埋め込みベクトルの複数の接頭辞に対しても計算されます。これによりモデルは、最も重要な情報を最も初期の次元に詰め込み、それに続く各次元がより細かいディテールを追加していく、つまり粗いものから細かいものへの構造を持つようになる。 対応モダリティと入力制限 このモデルは5種類の入力を受け入れ、すべて同じ埋め込み空間にマッピングされる： モダリティ 入力制限 フォーマット テキスト 最大8,192トークン プレーンテキスト 画像 1リクエストにつき6枚まで PNG, JPEG ビデオ 最大120秒 MP4、MOV 音声 最大80秒（ネイティブ、トランスクリプションなし） MP3, WAV PDF 直接埋め込む PDFドキュメント 既存モデルとの比較 TLDR:Googleの新しいGemini Embedding 2モデルは、テキスト、画像、ビデオ、音声のほぼ全てのモダリティにおいて、競合他社（自身の前身、Amazon<a class="excerpt-read-more" href="https://meetcody.ai/ja/blog/gemini-embedding-2%ef%bc%9a%e3%82%b0%e3%83%bc%e3%82%b0%e3%83%ab%e5%88%9d%e3%81%ae%e3%83%9e%e3%83%ab%e3%83%81%e3%83%a2%e3%83%bc%e3%83%80%e3%83%ab%e5%9f%8b%e3%82%81%e8%be%bc%e3%81%bf%e3%83%a2%e3%83%87/" title="ReadGemini Embedding 2：グーグル初のマルチモーダル埋め込みモデル">... Read more &#187;</a></p>
<p>The post <a href="https://meetcody.ai/ja/blog/gemini-embedding-2%ef%bc%9a%e3%82%b0%e3%83%bc%e3%82%b0%e3%83%ab%e5%88%9d%e3%81%ae%e3%83%9e%e3%83%ab%e3%83%81%e3%83%a2%e3%83%bc%e3%83%80%e3%83%ab%e5%9f%8b%e3%82%81%e8%be%bc%e3%81%bf%e3%83%a2%e3%83%87/">Gemini Embedding 2：グーグル初のマルチモーダル埋め込みモデル</a> appeared first on <a href="https://meetcody.ai/ja/">Cody - The AI Trained on Your Business</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p style="text-align: center;"><em>Gemini Embedding 2：機能、ベンチマーク、価格、開始方法</em><!-- notionvc: c383b1b6-2ff8-40bd-8227-0a70d481c796 --></p>
<p>先週、グーグルは  <a href="https://meetcody.ai/blog/google-introduces-the-multimodal-gemini-ultra-pro-nano-models/">ジェミニ</a> エンベッディング2は、Geminiアーキテクチャ上に構築された初のネイティブなマルチモーダルエンベッディングモデルである。エンベッディングを何らかの形で扱うのであれば、これは注目に値する。これは、今日ほとんどのチームが依存しているマルチモデルのエンベッディングパイプラインを大きく破壊する可能性を秘めています。  </p>
<p>これまで、OpenAI、Cohere、Voyageの主要な埋め込みモデルは、主にテキストベースでした。画像とテキストのアライメントには<a href="https://openai.com/index/clip/">CLIP</a>、画像とビデオには<a href="https://blog.voyageai.com/2026/01/15/voyage-multimodal-3-5/">Voyage Multimodal 3.5など</a>、いくつかのマルチモーダル・オプションは存在しましたが、単一の統一されたベクトル空間で、あらゆるモダリティをカバーするものはありませんでした。音声は通常、埋め込む前に書き起こす必要があった。ビデオでは、フレーム抽出と個別のトランスクリプト埋め込みが必要でした。画像は、完全に独自のベクトル空間に存在していました。    </p>
<p>Gemini Embedding 2はその方程式を変える。1つのモデル、1つのAPIコール、1つのベクトル空間。 </p>
<p>新情報を掘り下げてみよう。</p>
<h2>Gemini Embedding 2とは何ですか？</h2>
<p><a href="https://blog.google/innovation-and-ai/models-and-research/gemini-models/gemini-embedding-2/">Gemini Embedding 2</a>(<code>gemini-embedding-2-preview</code>) は、Google DeepMind初の完全なマルチモーダル<a href="https://meetcody.ai/blog/text-embedding-models/">埋め込みモデル</a>である。テキスト、画像、ビデオクリップ、音声記録、PDF文書を取り込み、それらすべてを同じ共有意味空間に存在するベクトルに変換する。 </p>
<p>CLIPのような以前のマルチモーダルアプローチは、ビジョンエンコーダとテキストエンコーダをペアにして、最後に対比学習でそれらを調整するものであったが、Gemini Embedding 2は、Geminiの基礎モデルそのものに基づいて構築されている。これは、深いクロスモーダル理解を基礎から受け継いでいることを意味する。 </p>
<div id="attachment_70663" style="width: 1034px" class="wp-caption aligncenter"><img fetchpriority="high" decoding="async" aria-describedby="caption-attachment-70663" class="wp-image-70663 size-full" src="https://meetcody.ai/wp-content/uploads/2026/03/embedding.png" alt="マルチモーダル埋め込み" width="1024" height="587" srcset="https://meetcody.ai/wp-content/uploads/2026/03/embedding.png 1024w, https://meetcody.ai/wp-content/uploads/2026/03/embedding-300x172.png 300w, https://meetcody.ai/wp-content/uploads/2026/03/embedding-768x440.png 768w" sizes="(max-width: 1024px) 100vw, 1024px" /><p id="caption-attachment-70663" class="wp-caption-text">ナノバナナを使用した画像</p></div>
<p><strong>実例</strong>ビデオチュートリアル、オーディオレクチャー、文書によるガイドで学習管理システム（LMS）を構築しているとします。Gemini Embedding 2を使用すると、これらすべてのコンテンツのエンベッディングを単一のベクトル空間に格納し、ビデオ、オーディオ、ドキュメントから関連する<a href="https://meetcody.ai/blog/how-does-cody-generate-responses-using-your-documents/">チャンクを</a>取得する<a href="https://meetcody.ai/blog/rag-private-clouds/">RAGベースのチャットボットを</a>構築することができます。これまでは、何層ものエンベッディングパイプラインが必要でしたが、それでも、トランスクリプトをキャプチャするだけで、ビデオのビジュアルコンテキストやスピーカーの声のトーンを逃していました。  </p>
<p>このモデルは<a href="https://arxiv.org/abs/2205.13147">マトリョーシカ表現学習を</a>使用しているため、必要なければ3072次元すべてを使用する必要はない。1536や768に縮小しても、使用可能な結果を得ることができる。 </p>
<p><em>マトリョーシカ表現学習(MRL)は、学習された表現が完全な次元だけでなく、ロシアのマトリョーシカ人形のように互いに入れ子になっている様々な小さな次元でも有用であるように、埋め込みモデルを学習する手法です。学習中、損失関数は完全な埋め込みだけでなく、埋め込みベクトルの複数の接頭辞に対しても計算されます。これによりモデルは、最も重要な情報を最も初期の次元に詰め込み、それに続く各次元がより細かいディテールを追加していく、つまり粗いものから細かいものへの構造を持つようになる。  </em></p>
<h2>対応モダリティと入力制限</h2>
<p>このモデルは5種類の入力を受け入れ、すべて同じ埋め込み空間にマッピングされる：</p>
<table>
<thead>
<tr>
<th>モダリティ</th>
<th>入力制限</th>
<th>フォーマット</th>
</tr>
</thead>
<tbody>
<tr>
<td>テキスト</td>
<td>最大8,192トークン</td>
<td>プレーンテキスト</td>
</tr>
<tr>
<td>画像</td>
<td>1リクエストにつき6枚まで</td>
<td>PNG, JPEG</td>
</tr>
<tr>
<td>ビデオ</td>
<td>最大120秒</td>
<td>MP4、MOV</td>
</tr>
<tr>
<td>音声</td>
<td>最大80秒（ネイティブ、トランスクリプションなし）</td>
<td>MP3, WAV</td>
</tr>
<tr>
<td>PDF</td>
<td>直接埋め込む</td>
<td>PDFドキュメント</td>
</tr>
</tbody>
</table>
<h2>既存モデルとの比較</h2>
<p><strong>TLDR:</strong>Googleの新しいGemini Embedding 2モデルは、テキスト、画像、ビデオ、音声のほぼ全てのモダリティにおいて、競合他社（自身の前身、Amazon Nova 2、Voyage Multimodal 3.5）を圧倒している。ビデオ検索と画像とテキストのマッチングでは、最も説得力を持ってリードしている。唯一勝てなかったベンチマークは文書検索で、Voyageがわずかにリードしている。音声テキスト検索は、競合他社がサポートしていないため、ジェミニの独壇場である。   </p>
<p>Googleは、自社のレガシーモデル、Amazon Nova 2 Multimodal Embeddings、Voyage Multimodal 3.5とのベンチマーク比較を発表した。これがその全貌だ： </p>
<h3>テキスト-テキスト</h3>
<table>
<thead>
<tr>
<th>メトリック</th>
<th>ジェミニエンベッディング2</th>
<th>ジェミニ・エンベディング001</th>
<th>アマゾン・ノヴァ 2</th>
<th>ボヤージュ・マルチモーダル3.5</th>
</tr>
</thead>
<tbody>
<tr>
<td>MTEB多言語（平均タスク）</td>
<td><strong>69.9</strong></td>
<td>68.4</td>
<td>63.8**</td>
<td>58.5***</td>
</tr>
<tr>
<td>MTEBコード（平均課題）</td>
<td><strong>84.0</strong></td>
<td>76.0</td>
<td>*</td>
<td>*</td>
</tr>
</tbody>
</table>
<p>Gemini Embedding 2は、多言語テキストでは余裕でリードし、コード検索では前作を8ポイント上回った。Amazon Nova 2もVoyageもコードスコアを報告していない。 </p>
<h3>テキスト画像</h3>
<table>
<thead>
<tr>
<th>メトリック</th>
<th>ジェミニエンベッディング2</th>
<th>マルチモーダルエンベディング@001</th>
<th>アマゾン・ノヴァ2</th>
<th>ボヤージュ・マルチモーダル3.5</th>
</tr>
</thead>
<tbody>
<tr>
<td>テキストキャップス（リコール@1）</td>
<td><strong>89.6</strong></td>
<td>74.0</td>
<td>76.0</td>
<td>79.4</td>
</tr>
<tr>
<td>ドッチ（リコール@1）</td>
<td><strong>93.4</strong></td>
<td>&#8211;</td>
<td>84.0</td>
<td>83.8</td>
</tr>
</tbody>
</table>
<p>テキストから画像への検索では、両ベンチマークで最も近い競合他社に9ポイント以上の差をつけている。</p>
<h3>画像-テキスト</h3>
<table>
<thead>
<tr>
<th>メトリック</th>
<th>ジェミニエンベッディング2</th>
<th>マルチモーダルエンベディング@001</th>
<th>アマゾン・ノヴァ2</th>
<th>ボヤージュ・マルチモーダル3.5</th>
</tr>
</thead>
<tbody>
<tr>
<td>テキストキャップス（リコール@1）</td>
<td><strong>97.4</strong></td>
<td>88.1</td>
<td>88.9</td>
<td>88.6</td>
</tr>
<tr>
<td>ドッチ（リコール@1）</td>
<td><strong>91.3</strong></td>
<td>&#8211;</td>
<td>76.5</td>
<td>77.4</td>
</tr>
</tbody>
</table>
<p>画像からテキストへの検索では、DocciのAmazon Nova 2に15ポイント近い差をつけている。</p>
<h3>テキスト・ドキュメント</h3>
<table>
<thead>
<tr>
<th>メトリック</th>
<th>ジェミニエンベッディング2</th>
<th>マルチモーダルエンベディング@001</th>
<th>アマゾン・ノヴァ2</th>
<th>ボヤージュ・マルチモーダル3.5</th>
</tr>
</thead>
<tbody>
<tr>
<td>ViDoRe v2 (ndcg@10)</td>
<td>64.9</td>
<td>28.9</td>
<td>60.6</td>
<td><strong>65.5**</strong></td>
</tr>
</tbody>
</table>
<p>Voyage Multimodal 3.5が優位に立つベンチマークは1つ（自己申告）。文書検索は上位モデル間で拮抗している。 </p>
<h3>テキスト-ビデオ</h3>
<table>
<thead>
<tr>
<th>メトリック</th>
<th>ジェミニエンベッディング2</th>
<th>マルチモーダルエンベディング@001</th>
<th>アマゾン・ノヴァ2</th>
<th>ボヤージュ・マルチモーダル3.5</th>
</tr>
</thead>
<tbody>
<tr>
<td>バテックス（ndcg@10）</td>
<td><strong>68.8</strong></td>
<td>54.9</td>
<td>60.3</td>
<td>55.2</td>
</tr>
<tr>
<td>MSR-VTT (ndcg@10)</td>
<td><strong>68.0</strong></td>
<td>57.9</td>
<td>67.0</td>
<td>63.0**</td>
</tr>
<tr>
<td>ユーコック2 (ndcg@10)</td>
<td><strong>52.5</strong></td>
<td>34.9</td>
<td>34.7</td>
<td>31.4**</td>
</tr>
</tbody>
</table>
<p>ビデオ検索では、Gemini Embedding 2が最も優位に立っており、Youcook2ではVoyageを17ポイント以上、Vatexでは13ポイント以上上回っている。</p>
<h3>スピーチ・テキスト</h3>
<table>
<thead>
<tr>
<th>メトリック</th>
<th>ジェミニ・エンベッディング2</th>
</tr>
</thead>
<tbody>
<tr>
<td>MSEB (mrr@10)</td>
<td><strong>73.9</strong></td>
</tr>
<tr>
<td>MSEB ASR**** (mrr@10)</td>
<td><strong>70.4</strong></td>
</tr>
</tbody>
</table>
<p>音声テキスト検索は、AmazonもVoyageもサポートしていない。これはGemini Embedding 2が完全に所有しているカテゴリーである。 </p>
<p><em>&#8211; スコアは不明 ** 自己申告 **** voyage-3.5 **** ASRモデルが音声クエリをテキストに変換</em></p>
<h2>価格設定</h2>
<p>このモデルは現在、パブリックプレビュー中は無料です。有料版になると、その内訳は以下のようになる： </p>
<table>
<thead>
<tr>
<th></th>
<th>無料ティア</th>
<th>有料ティア（1Mトークンあたり）</th>
</tr>
</thead>
<tbody>
<tr>
<td>テキスト入力</td>
<td>無料</td>
<td>$0.20</td>
</tr>
<tr>
<td>画像入力</td>
<td>無料</td>
<td>0.45ドル（画像1枚につき0.00012ドル）</td>
</tr>
<tr>
<td>音声入力</td>
<td>無料</td>
<td>6.50ドル（1秒あたり0.00016ドル）</td>
</tr>
<tr>
<td>ビデオ入力</td>
<td>無料</td>
<td>12ドル（1フレームあたり0.00079ドル）</td>
</tr>
<tr>
<td>Google 製品の改善に使用</td>
<td>利用目的</td>
<td>いいえ</td>
</tr>
</tbody>
</table>
<h2><strong>はじめに</strong></h2>
<p>このモデルは現在、Gemini APIおよびVertex AIを通じて、モデルID  <code>gemini-embedding-2-preview</code>. LangChain、LlamaIndex、Haystack、Weaviate、Qdrant、ChromaDB、Vector Searchと統合されています。</p>
<pre><code class="language-jsx">from google import genai
from google.genai import types

# For Vertex AI:
# PROJECT_ID='&lt;add_here&gt;'
# client = genai.Client(vertexai=True, project=PROJECT_ID, location='us-central1')

client = genai.Client()

with open("example.png", "rb") as f:
    image_bytes = f.read()

with open("sample.mp3", "rb") as f:
    audio_bytes = f.read()

# Embed text, image, and audio 
result = client.models.embed_content(
    model="gemini-embedding-2-preview",
    contents=[
        "What is the meaning of life?",
        types.Part.from_bytes(
            data=image_bytes,
            mime_type="image/png",
        ),
        types.Part.from_bytes(
            data=audio_bytes,
            mime_type="audio/mpeg",
        ),
    ],
)

print(result.embeddings)
</code></pre>
<h2>ここで試してみよう！</h2>
<p>gemini-embedding-2のマルチモーダル検索性能をテストできる<a href="https://gemini-2-trial.vercel.app">デモアプリを</a>作りました。</p>
<p>APIキーは<a href="http://aistudio.google.com">aistudio.google.comに</a>ログインして取得できます。</p>
<h2>注意すべき制限</h2>
<ul>
<li>このモデルはまだ公開プレビュー中だ（「プレビュー」タグは、GA前に価格や動作が変更される可能性があることを意味する）。</li>
<li>ビデオ入力の上限は120秒、オーディオは80秒。</li>
<li>金融QAのようなニッチな領域でのパフォーマンスは弱い。</li>
<li>マルチモーダル計画を持たない純粋なテキストパイプラインの場合、テキストのみのモデルに対するコストプレミアムは正当化されないかもしれない。</li>
</ul>
<h2>結論</h2>
<p>Gemini Embedding 2は、単なる漸進的な改善ではなく、カテゴリーシフトである。マルチモーダルなRAGシステム、メディアタイプにまたがるセマンティック検索、または統合されたナレッジベースを構築するチームにとって、マルチモデル、マルチパイプラインの問題であったものが、単一のAPI呼び出しに集約される。もしあなたのデータがテキスト以上のものに及ぶのであれば、まずこのモデルを評価すべきだろう。  </p>
<p>マルチモーダルRAGの構築は、エンベッディングモデル、ベクターデータベース、検索ロジックをゼロからつなぎ合わせることを意味すべきではありません。エンベッディング・パイプラインを処理するマネージド<a href="https://meetcody.ai/blog/rag-as-a-service-unlock-generative-ai-for-your-business/">RAG-as-a-Service</a>ソリューションをお望みなら、Codyの無料トライアルに<a href="https://getcody.ai/">サインアップして</a>、今すぐ構築を開始してください。 </p>
<p><!-- notionvc: 1819203a-dd06-4804-9886-3355db49e8de --></p>
<p>The post <a href="https://meetcody.ai/ja/blog/gemini-embedding-2%ef%bc%9a%e3%82%b0%e3%83%bc%e3%82%b0%e3%83%ab%e5%88%9d%e3%81%ae%e3%83%9e%e3%83%ab%e3%83%81%e3%83%a2%e3%83%bc%e3%83%80%e3%83%ab%e5%9f%8b%e3%82%81%e8%be%bc%e3%81%bf%e3%83%a2%e3%83%87/">Gemini Embedding 2：グーグル初のマルチモーダル埋め込みモデル</a> appeared first on <a href="https://meetcody.ai/ja/">Cody - The AI Trained on Your Business</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>ジェミニ2.5プロとGPT-4.5：AI革命をリードするのは誰か？</title>
		<link>https://meetcody.ai/ja/blog/%e3%82%b8%e3%82%a7%e3%83%9f%e3%83%8b2-5%e3%83%97%e3%83%ad%e3%81%a8gpt-4-5%ef%bc%9aai%e9%9d%a9%e5%91%bd%e3%82%92%e3%83%aa%e3%83%bc%e3%83%89%e3%81%99%e3%82%8b%e3%81%ae%e3%81%af%e8%aa%b0%e3%81%8b/</link>
		
		<dc:creator><![CDATA[Om Kamath]]></dc:creator>
		<pubDate>Wed, 26 Mar 2025 15:36:01 +0000</pubDate>
				<category><![CDATA[カテゴリーなし]]></category>
		<guid isPermaLink="false">https://meetcody.ai/blog/%e3%82%b8%e3%82%a7%e3%83%9f%e3%83%8b2-5%e3%83%97%e3%83%ad%e3%81%a8gpt-4-5%ef%bc%9aai%e9%9d%a9%e5%91%bd%e3%82%92%e3%83%aa%e3%83%bc%e3%83%89%e3%81%99%e3%82%8b%e3%81%ae%e3%81%af%e8%aa%b0%e3%81%8b/</guid>

					<description><![CDATA[<p>2025年、人工知能の世界は非常にエキサイティングなものとなっており、大手ハイテク企業はこれまでにない最先端のAIシステムを作ろうと熾烈な競争を繰り広げている。この激しい競争は多くの新しいアイデアを生み出し、AIが人間のように思考し、問題を解決し、対話できることの限界を押し広げている。この1ヶ月の間に、2つの主要プレーヤーが先導する驚くべき改善があった：グーグルのGemini 2.5 ProとOpenAIのGPT-4.5だ。2025年3月の大々的な発表で、グーグルはジェミニ2.5プロを発表した。このジェミニ2.5プロは、LMArenaのリーダーボードで、競合他社を抑えてすぐにトップに躍り出た。ジェミニ2.5が特別なのは、応答を注意深く検討する能力であり、深い思考を必要とする複雑なタスクで優れたパフォーマンスを発揮するのに役立つ。 オープンAIは遅れをとるまいと、これまでで最大かつ最も先進的なチャットモデルであるGPT-4.5を発表した。このモデルは、パターンを認識し、つながりを作り、創造的なアイデアを思いつくことに優れています。初期のテストによると、GPT-4.5は幅広い知識を持ち、ユーザーの言いたいことを理解する能力が向上しているため、GPT-4.5との対話は非常に自然に感じられるという。OpenAIは、GPT-4.5が、人間とのスムーズなコラボレーションのために設計された、直接の監視なしでの学習において大幅に改善されたことを強調している。 これらのAIシステムは、単に印象的なテクノロジーというだけでなく、ビジネスのあり方を変え、科学的発見を加速させ、創造的なプロジェクトを変革している。AIが日常生活の普通の一部となるにつれ、ジェミニ2.5プロやGPT-4.5のようなモデルは、私たちが可能だと考えることを拡大しつつある。より優れた推論能力、誤った情報を広める可能性の低さ、複雑な問題に対する熟達度によって、人類の進歩を真にサポートするAIシステムへの道が開かれつつある。 ジェミニ2.5プロを理解する 2025年3月25日、グーグルは「最もインテリジェントなAIモデル」と評されるジェミニ2.5プロを正式に発表した。このリリースは、2.0モデルを何度か繰り返した後、グーグルのAI開発における重要なマイルストーンとなった。リリース戦略は、まず実験的バージョンから始まり、ジェミニ・アドバンスド加入者にその機能をテストするための早期アクセスを提供した。 Gemini 2.5 Proが前世代と異なるのは、&#8220;思考モデル&#8220;としての基本的なアーキテクチャである。主に訓練されたデータパターンに依存していた前世代とは異なり、このモデルは、人間の問題解決プロセスを模倣し、応答する前に能動的に思考を推論することができる。これは、AIシステムが情報を処理し、応答を生成する方法における大きな進歩を意味する。 主な特徴と能力 強化された推論能力&#8211; 複雑な領域にわたって、段階的な問題解決が可能。 コンテキスト・ウィンドウの拡張&#8211; 100万メダル収容可能（200万メダルまで拡張予定） ネイティブなマルチモダリティ&#8211; テキスト、画像、音声、動画、コードをシームレスに処理 高度なコード機能&#8211; ウェブアプリの作成とコード変換が大幅に改善されました。 Gemini 2.5 Proは、LMArenaリーダーボードで初登場1位を獲得し、パフォーマンスリーダーとしての地位を確立した。Gemini 2.5 Proは、高度な推論を必要とするベンチマークにおいて特に優れており、外部ツールを使用せずに「Humanity&#8217;s Last Exam（人類最後の試験）」で業界トップクラスの18.8%を記録した。数学と科学では、それぞれAIME2025で86.7%、GPQAダイヤモンドで79.7%という驚異的な能力を示している。 以前のGeminiモデルと比較して、バージョン2.5 Proは大幅な飛躍を遂げている。Gemini 2.0が重要な基本機能を導入したのに対し、2.5 Proは大幅に強化された基本モデルと改良されたポストトレーニングテクニックを組み合わせている。最も顕著な改善は、コーディングパフォーマンス、推論の深さ、および文脈理解である。 GPT-4.5を探る 2025年4月、OpenAIはGPT-4.5を発表し、これを「これまでで最大かつ最も先進的なチャットモデル」と説明した。この研究プレビューは、AIコミュニティ内ですぐに興奮を呼び起こし、最初のテストでは、その広範な知識ベースとユーザーの意図を理解するための強化された能力のおかげで、モデルとの対話が非常に自然に感じられることが示されました。 GPT-4.5は、教師なし学習機能において大きな進歩を示しています。OpenAIは、革新的なアーキテクチャと最適化戦略を採用すると同時に、計算能力とデータ入力の両方を拡張することで、この進歩を実現しました。このモデルはMicrosoft Azure AIスーパーコンピュータ上で学習され、OpenAIが可能性の限界を押し広げることを可能にするパートナーシップを継続しています。 コアの改善と能力： パターン認識の強化&#8211; パターンを認識し、関連性を導き出し、創造的な洞察を生み出す能力が大幅に向上。 幻覚の減少&#8211;GPT-4oや o1のような以前のモデルと比較して、誤った情報を生成する可能性が低い。 EQ」の向上-感情的知性の向上と微妙な人間関係の理解 高度な操舵性&#8211; 複雑なユーザー指示のより良い理解と遵守 OpenAIは、GPT-4.5を人間との共同作業のために訓練することに特に重点を置いています。新しい技術により、モデルの操縦性、ニュアンスの理解、自然な会話の流れが強化されました。これにより、ライティングやデザイン支援において特に効果を発揮し、以前のバージョンよりも強い美的直感と創造性を発揮します。 実世界での応用において、GPT-4.5は驚くべき汎用性を発揮します。拡張された知識ベースと改良された推論能力により、詳細なコンテンツ作成から高度な問題解決まで、幅広いタスクに適している。OpenAIのCEOであるサム・アルトマンは、すべてのベンチマークカテゴリーでリードしていないにもかかわらず、このモデルを肯定的に評価し、その「ユニークな有効性」を強調しています。 GPT-4.5の展開戦略は、強力なAIシステムをリリースするためのOpenAIの慎重なアプローチを反映しています。当初はChatGPT Proサブスクライバーと開発者が様々なAPIを通じて有料層で利用できるようにし、徐々にChatGPT Plus、Team、Edu、Enterpriseサブスクライバーへのアクセスを拡大する予定です。この段階的な展開により、OpenAIは利用が拡大するにつれて、パフォーマンスと安全性を監視することができます。 パフォーマンス指標：比較分析 これらの高度なAIモデルの技術的能力を検証する際、ベンチマーク性能はその能力を最も客観的に測る尺度となる。Gemini 2.5 ProとGPT-4.5は、それぞれ様々な領域で独自の強みを発揮しており、ベンチマークテストによって、その明確な優位性が明らかになりました。 ベンチマーク ジェミニ 2.5<a class="excerpt-read-more" href="https://meetcody.ai/ja/blog/%e3%82%b8%e3%82%a7%e3%83%9f%e3%83%8b2-5%e3%83%97%e3%83%ad%e3%81%a8gpt-4-5%ef%bc%9aai%e9%9d%a9%e5%91%bd%e3%82%92%e3%83%aa%e3%83%bc%e3%83%89%e3%81%99%e3%82%8b%e3%81%ae%e3%81%af%e8%aa%b0%e3%81%8b/" title="Readジェミニ2.5プロとGPT-4.5：AI革命をリードするのは誰か？">... Read more &#187;</a></p>
<p>The post <a href="https://meetcody.ai/ja/blog/%e3%82%b8%e3%82%a7%e3%83%9f%e3%83%8b2-5%e3%83%97%e3%83%ad%e3%81%a8gpt-4-5%ef%bc%9aai%e9%9d%a9%e5%91%bd%e3%82%92%e3%83%aa%e3%83%bc%e3%83%89%e3%81%99%e3%82%8b%e3%81%ae%e3%81%af%e8%aa%b0%e3%81%8b/">ジェミニ2.5プロとGPT-4.5：AI革命をリードするのは誰か？</a> appeared first on <a href="https://meetcody.ai/ja/">Cody - The AI Trained on Your Business</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p data-pm-slice="0 0 []">2025年、人工知能の世界は非常にエキサイティングなものとなっており、大手ハイテク企業はこれまでにない最先端のAIシステムを作ろうと熾烈な競争を繰り広げている。この激しい競争は多くの新しいアイデアを生み出し、AIが人間のように思考し、問題を解決し、対話できることの限界を押し広げている。この1ヶ月の間に、2つの主要プレーヤーが先導する驚くべき改善があった：グーグルのGemini 2.5 ProとOpenAIのGPT-4.5だ。2025年3月の大々的な発表で、グーグルはジェミニ2.5プロを発表した。このジェミニ2.5プロは、<a href="https://lmarena.ai/?p2l" target="_blank" rel="noopener noreferrer">LMArenaの</a>リーダーボードで、競合他社を抑えてすぐにトップに躍り出た。ジェミニ2.5が特別なのは、応答を注意深く検討する能力であり、深い思考を必要とする複雑なタスクで優れたパフォーマンスを発揮するのに役立つ。     </p>
<p>オープンAIは遅れをとるまいと、これまでで最大かつ最も先進的なチャットモデルであるGPT-4.5を発表した。このモデルは、パターンを認識し、つながりを作り、創造的なアイデアを思いつくことに優れています。初期のテストによると、GPT-4.5は幅広い知識を持ち、ユーザーの言いたいことを理解する能力が向上しているため、GPT-4.5との対話は非常に自然に感じられるという。OpenAIは、GPT-4.5が、人間とのスムーズなコラボレーションのために設計された、直接の監視なしでの学習において大幅に改善されたことを強調している。   </p>
<p>これらのAIシステムは、単に印象的なテクノロジーというだけでなく、ビジネスのあり方を変え、科学的発見を加速させ、創造的なプロジェクトを変革している。AIが日常生活の普通の一部となるにつれ、ジェミニ2.5プロやGPT-4.5のようなモデルは、私たちが可能だと考えることを拡大しつつある。より優れた推論能力、誤った情報を広める可能性の低さ、複雑な問題に対する熟達度によって、人類の進歩を真にサポートするAIシステムへの道が開かれつつある。  </p>
<h2>ジェミニ2.5プロを理解する</h2>
<p>2025年3月25日、グーグルは「最もインテリジェントなAIモデル」と評されるジェミニ2.5プロを正式に発表した。このリリースは、2.0モデルを<a href="https://meetcody.ai/blog/chatgpt-killer-what-gemini-means-for-googles-ai-future/" target="_blank" rel="noopener noreferrer">何度か繰り返した</a>後、グーグルのAI開発における重要なマイルストーンとなった。リリース戦略は、まず実験的バージョンから始まり、ジェミニ・アドバンスド加入者にその機能をテストするための早期アクセスを提供した。  </p>
<p><img decoding="async" class="aligncenter wp-image-50851 size-large" src="https://meetcody.ai/wp-content/uploads/2025/03/final_2.5_blog_1.original-1024x629.jpg" alt="ジェミニ2.5ベンチマーク" width="1024" height="629" srcset="https://meetcody.ai/wp-content/uploads/2025/03/final_2.5_blog_1.original-1024x629.jpg 1024w, https://meetcody.ai/wp-content/uploads/2025/03/final_2.5_blog_1.original-300x184.jpg 300w, https://meetcody.ai/wp-content/uploads/2025/03/final_2.5_blog_1.original-768x472.jpg 768w, https://meetcody.ai/wp-content/uploads/2025/03/final_2.5_blog_1.original-1536x943.jpg 1536w, https://meetcody.ai/wp-content/uploads/2025/03/final_2.5_blog_1.original-2048x1258.jpg 2048w, https://meetcody.ai/wp-content/uploads/2025/03/final_2.5_blog_1.original-1055x648.jpg 1055w" sizes="(max-width: 1024px) 100vw, 1024px" /></p>
<p>Gemini 2.5 Proが前世代と異なるのは、<a href="https://ai.google.dev/gemini-api/docs/thinking#:~:text=Gemini%202.5%20Pro%20Experimental%20and,them%20to%20solve%20complex%20tasks." target="_blank" rel="noopener noreferrer">&#8220;思考モデル</a>&#8220;としての基本的なアーキテクチャである。主に訓練されたデータパターンに依存していた前世代とは異なり、このモデルは、人間の問題解決プロセスを模倣し、応答する前に能動的に思考を推論することができる。これは、AIシステムが情報を処理し、応答を生成する方法における大きな進歩を意味する。 </p>
<h3>主な特徴と能力</h3>
<ol class="tight" data-tight="true">
<li><strong>強化された推論能力</strong>&#8211; 複雑な領域にわたって、段階的な問題解決が可能。</li>
<li><strong>コンテキスト・ウィンドウの拡張</strong>&#8211; 100万メダル収容可能（200万メダルまで拡張予定）</li>
<li><strong>ネイティブなマルチモダリティ</strong>&#8211; テキスト、画像、音声、動画、コードをシームレスに処理</li>
<li><strong>高度なコード機能</strong>&#8211; ウェブアプリの作成とコード変換が大幅に改善されました。</li>
</ol>
<p>Gemini 2.5 Proは、LMArenaリーダーボードで初登場1位を獲得し、パフォーマンスリーダーとしての地位を確立した。Gemini 2.5 Proは、高度な推論を必要とするベンチマークにおいて特に優れており、外部ツールを使用せずに「Humanity&#8217;s Last Exam（人類最後の試験）」で業界トップクラスの18.8%を記録した。数学と科学では、それぞれAIME2025で86.7%、GPQAダイヤモンドで79.7%という驚異的な能力を示している。  </p>
<p>以前のGeminiモデルと比較して、バージョン2.5 Proは大幅な飛躍を遂げている。Gemini 2.0が重要な基本機能を導入したのに対し、2.5 Proは大幅に強化された基本モデルと改良されたポストトレーニングテクニックを組み合わせている。最も顕著な改善は、コーディングパフォーマンス、推論の深さ、および文脈理解である。  </p>
<h2>GPT-4.5を探る</h2>
<p>2025年4月、OpenAIはGPT-4.5を発表し、これを「これまでで最大かつ最も先進的なチャットモデル」と説明した。この研究プレビューは、AIコミュニティ内ですぐに興奮を呼び起こし、最初のテストでは、その広範な知識ベースとユーザーの意図を理解するための強化された能力のおかげで、モデルとの対話が非常に自然に感じられることが示されました。 </p>
<p>GPT-4.5は、教師なし学習機能において大きな進歩を示しています。OpenAIは、革新的なアーキテクチャと最適化戦略を採用すると同時に、計算能力とデータ入力の両方を拡張することで、この進歩を実現しました。このモデルはMicrosoft Azure AIスーパーコンピュータ上で学習され、OpenAIが可能性の限界を押し広げることを可能にするパートナーシップを継続しています。  </p>
<h3>コアの改善と能力：</h3>
<ol class="tight" data-tight="true">
<li><strong>パターン認識の強化</strong>&#8211; パターンを認識し、関連性を導き出し、創造的な洞察を生み出す能力が大幅に向上。</li>
<li><strong>幻覚の減少</strong>&#8211;<a href="https://meetcody.ai/blog/gpt-4o-unveiled/" target="_blank" rel="noopener noreferrer">GPT-4oや</a> <a href="https://meetcody.ai/blog/openai-o3-vs-o1-the-future-of-ai-reasoning-and-safety-unveiled/" target="_blank" rel="noopener noreferrer">o1の</a>ような以前のモデルと比較して、誤った情報を生成する可能性が低い。</li>
<li><strong>EQ」の向上</strong>-感情的知性の向上と微妙な人間関係の理解</li>
<li><strong>高度な操舵性</strong>&#8211; 複雑なユーザー指示のより良い理解と遵守</li>
</ol>
<p>OpenAIは、GPT-4.5を人間との共同作業のために訓練することに特に重点を置いています。新しい技術により、モデルの操縦性、ニュアンスの理解、自然な会話の流れが強化されました。これにより、ライティングやデザイン支援において特に効果を発揮し、以前のバージョンよりも強い美的直感と創造性を発揮します。  </p>
<p>実世界での応用において、GPT-4.5は驚くべき汎用性を発揮します。拡張された知識ベースと改良された推論能力により、詳細なコンテンツ作成から高度な問題解決まで、幅広いタスクに適している。OpenAIのCEOであるサム・アルトマンは、すべてのベンチマークカテゴリーでリードしていないにもかかわらず、このモデルを肯定的に評価し、その「ユニークな有効性」を強調しています。  </p>
<p>GPT-4.5の展開戦略は、強力なAIシステムをリリースするためのOpenAIの慎重なアプローチを反映しています。当初はChatGPT Proサブスクライバーと開発者が様々なAPIを通じて有料層で利用できるようにし、徐々にChatGPT Plus、Team、Edu、Enterpriseサブスクライバーへのアクセスを拡大する予定です。この段階的な展開により、OpenAIは利用が拡大するにつれて、パフォーマンスと安全性を監視することができます。  </p>
<h2>パフォーマンス指標：比較分析</h2>
<p>これらの高度なAIモデルの技術的能力を検証する際、ベンチマーク性能はその能力を最も客観的に測る尺度となる。Gemini 2.5 ProとGPT-4.5は、それぞれ様々な領域で独自の強みを発揮しており、ベンチマークテストによって、その明確な優位性が明らかになりました。 </p>
<table>
<colgroup>
<col>
<col>
<col>
<col>
<col></colgroup>
<tbody>
<tr>
<th colspan="1" rowspan="1">ベンチマーク</th>
<th colspan="1" rowspan="1">ジェミニ 2.5 プロ (03-25)</th>
<th colspan="1" rowspan="1">オープンAI GPT-4.5</th>
<th colspan="1" rowspan="1">クロード 3.7 ソネット</th>
<th colspan="1" rowspan="1">Grok 3 プレビュー</th>
</tr>
<tr>
<td colspan="1" rowspan="1">LMArena（総合）</td>
<td colspan="1" rowspan="1">#1</td>
<td colspan="1" rowspan="1">2</td>
<td colspan="1" rowspan="1">21</td>
<td colspan="1" rowspan="1">2</td>
</tr>
<tr>
<td colspan="1" rowspan="1">人類最後の試験（道具なし）</td>
<td colspan="1" rowspan="1">18.8%</td>
<td colspan="1" rowspan="1">6.4%</td>
<td colspan="1" rowspan="1">8.9%</td>
<td colspan="1" rowspan="1">&#8211;</td>
</tr>
<tr>
<td colspan="1" rowspan="1">GPQAダイヤモンド（シングルアテンプト）</td>
<td colspan="1" rowspan="1">84.0%</td>
<td colspan="1" rowspan="1">71.4%</td>
<td colspan="1" rowspan="1">78.2%</td>
<td colspan="1" rowspan="1">80.2%</td>
</tr>
<tr>
<td colspan="1" rowspan="1">AIME 2025 (シングルアタンプト)</td>
<td colspan="1" rowspan="1">86.7%</td>
<td colspan="1" rowspan="1">&#8211;</td>
<td colspan="1" rowspan="1">49.5%</td>
<td colspan="1" rowspan="1">77.3%</td>
</tr>
<tr>
<td colspan="1" rowspan="1">SWEベンチ検証済み</td>
<td colspan="1" rowspan="1">63.8%</td>
<td colspan="1" rowspan="1">38.0%</td>
<td colspan="1" rowspan="1">70.3%</td>
<td colspan="1" rowspan="1">&#8211;</td>
</tr>
<tr>
<td colspan="1" rowspan="1">アイダー・ポリグロット（全体／差分）</td>
<td colspan="1" rowspan="1">74.0% / 68.6%</td>
<td colspan="1" rowspan="1">44.9% 差分</td>
<td colspan="1" rowspan="1">64.9% 差分</td>
<td colspan="1" rowspan="1">&#8211;</td>
</tr>
<tr>
<td colspan="1" rowspan="1">MRCR (128k)</td>
<td colspan="1" rowspan="1">91.5%</td>
<td colspan="1" rowspan="1">48.8%</td>
<td colspan="1" rowspan="1">&#8211;</td>
<td colspan="1" rowspan="1">&#8211;</td>
</tr>
</tbody>
</table>
<p>Gemini 2.5 Proは、<a href="https://www.digitalocean.com/community/tutorials/understanding-reasoning-in-llms" target="_blank" rel="noopener noreferrer">推論を多用する</a>タスクにおいて卓越した強さを示し、特にロングコンテクスト推論と知識保持に優れている。人間の知識のフロンティアを試す「人類最後の試験」では、競合他社を大きく上回っている。しかし、コード生成やエージェントコーディングでは相対的な弱点を示し、特定のドメインでは時折、事実性に苦戦する。  </p>
<p>逆にGPT-4.5は、パターン認識、創造的洞察力生成、科学的推論において特に優れた能力を発揮する。<a href="https://arxiv.org/abs/2311.12022" target="_blank" rel="noopener noreferrer">GPQA</a>ダイアモンドベンチマークでは、GPT-4.5が科学的な領域で高い能力を発揮しています。このモデルはまた、感情的知能と美的直感の強化も示しており、創造的でデザイン志向のアプリケーションに特に有用である。主な利点は、先行モデルと比較して誤った情報を生成する傾向が少ないことである。   </p>
<p>実用的な面では、Gemini 2.5 Proは、深い推論、マルチモーダルな理解、非常に長い文脈の処理を必要とするタスクに最適です。GPT-4.5は、クリエイティブな作業、デザイン補助、事実の正確さと自然な会話の流れが最優先されるアプリケーションにおいて優位性を発揮します。 </p>
<h2>アプリケーションと使用例</h2>
<p>ベンチマークの性能は貴重な技術的洞察を提供するが、これらの高度なAIモデルの真の評価基準は、さまざまな領域にわたる実用的な応用にある。Gemini 2.5 ProとGPT-4.5はどちらも、さまざまなユースケースに適した明確な強みを示しており、組織はすでに複雑な問題を解決するためにその能力を活用し始めている。 </p>
<h3>科学技術分野におけるGemini 2.5 Pro</h3>
<p>Gemini 2.5 Proの卓越した推論能力と広範なコンテキストウィンドウは、科学研究や技術的なアプリケーションに特に有用です。テキスト、画像、オーディオ、ビデオ、コードを含む<a href="https://cloud.google.com/use-cases/multimodal-ai?hl=en" target="_blank" rel="noopener noreferrer">マルチモーダルデータを</a>処理し分析する能力により、多様なソースからの情報を合成する必要がある複雑な問題に対応することができます。この汎用性により、技術的な正確さと包括的な分析を必要とする業界において、多くの可能性が広がります。  </p>
<ol class="tight" data-tight="true">
<li><strong>科学研究とデータ分析</strong>&#8211; Gemini 2.5 ProのGPQA (79.7%)のようなベンチマークでの高い性能は、複雑な科学文献の分析、仮説の作成、実験結果の解釈において研究者を支援する可能性を示している。</li>
<li><strong>ソフトウェア開発とエンジニアリング</strong>&#8211; このモデルは、ウェブアプリケーションの作成、コード変換の実行、複雑なプログラムの開発に優れており、カスタムエージェントのセットアップを使用して検証されたSWE-Benchのスコアは63.8%でした。</li>
<li><strong>医療診断とヘルスケア</strong>&#8211; その推論機能により、医療画像と患者データの分析が可能になり、医療従事者の診断プロセスをサポートします。</li>
<li><strong>ビッグデータ解析とナレッジマネジメント</strong>&#8211; 100万トークンのコンテキストウィンドウ（まもなく200万まで拡張）により、データセット全体とコードリポジトリを1回のプロンプトで処理できます。</li>
</ol>
<h3>GPT-4.5のクリエイティブ・コミュニケーション・タスクの優秀性</h3>
<p>一方、GPT-4.5は、微妙なコミュニケーション、創造的思考、審美的判断を必要とするタスクに特に強みを発揮する。OpenAIは、このモデルを人間との共同作業に特化してトレーニングすることを重視し、その結果、コンテンツ作成、デザイン支援、自然なコミュニケーションなどの機能が強化されました。 </p>
<ol class="tight" data-tight="true">
<li><strong>コンテンツの作成とライティング</strong>&#8211; GPT-4.5は、美的直感と創造性が強化されており、マーケティング・コピー、記事、脚本、その他のライティング・コンテンツの作成に適している。</li>
<li><strong>デザイン・コラボレーション</strong>&#8211; ニュアンスとコンテクストの理解が深まったモデルは、コンセプト作りから改良に至るまで、デザイン・プロセスにおける効果的なパートナーとなる。</li>
<li><strong>顧客エンゲージメント</strong>&#8211; より優れた感情的知性により、GPT-4.5は顧客サービスの場面でより適切で自然な対応を提供する。</li>
<li><strong>教育コンテンツの開発</strong>&#8211; このモデルは、さまざまな知識レベルや学習スタイルに合わせた説明に優れています。</li>
</ol>
<p>様々な分野の企業が、すでにこれらのモデルをワークフローに組み込んでいる。マイクロソフトはOpenAIの技術を直接自社の製品スイートに組み込み、企業ユーザーにGPT-4.5の機能への即時アクセスを提供している。同様に、GoogleのGemini 2.5 Proは、その推論とマルチモーダルな強みを活用しようとする研究機関やテクノロジー企業で応用されている。  </p>
<p>これらのモデルの補完的な強みは、多くの組織が、特定のユースケースに応じて、両方を活用することで利益を得られる可能性があることを示唆している。これらの技術が成熟し続けるにつれて、知識労働、創造的プロセス、問題解決を根本的に変革するような、ますます洗練されたアプリケーションを、業界全体で目にすることができるようになるだろう。 </p>
<h2>AIの未来：次に何が起こるのか？</h2>
<p>Gemini 2.5 ProとGPT-4.5が可能性の限界を押し広げるにつれ、AI開発の将来的な軌跡がより鮮明に見えてくる。グーグルの「すべてのモデルに思考能力を直接組み込む」というコミットメントは、推論がAIシステム全体の標準となる未来を示唆している。同様に、OpenAIの「教師なし学習と推論を拡張する」というアプローチは、人間のようなコンテンツを理解し、生成する能力が拡大し続けるモデルを示唆している。  </p>
<p>今後数年間は、現在の限界を超えてコンテキストのウィンドウを劇的に拡大し、より洗練された推論を行い、あらゆるモダリティをシームレスに統合したAIモデルが登場することになるだろう。また、人間の監視を最小限に抑えて複雑なタスクを実行できる、真に自律的なAIエージェントの台頭を目の当たりにするかもしれない。しかし、こうした進歩は大きな課題をもたらす。AIの能力が高まるにつれて、誤情報、プライバシー、人間の労働力の代替に関連する潜在的なリスクに対処することの重要性も高まっている。   </p>
<p>倫理的配慮はAI開発の最前線にあり続けなければならない。OpenAIは、「モデル能力の向上は、モデルをより安全にする機会である」と認識し、進歩と保護の二重の責任を強調している。AIコミュニティは、悪用から保護しながらイノベーションを奨励する強固なガバナンスの枠組みを開発する必要がある。  </p>
<p>ジェミニ2.5プロとGPT-4.5に代表されるAI革命は、まだ始まったばかりである。進歩のペースは興奮と不安の両方をもたらすが、1つだけはっきりしていることがある。AIの未来は、単に技術的な能力によって定義されるのではなく、人間の利益のためにそれをどのように活用するかによって定義されるということだ。人間の可能性に取って代わるのではなく、それを補強する責任ある開発を優先することで、次世代のAIモデルが集団的進歩のための強力なツールとなることを確実にすることができる。  </p>
<p>The post <a href="https://meetcody.ai/ja/blog/%e3%82%b8%e3%82%a7%e3%83%9f%e3%83%8b2-5%e3%83%97%e3%83%ad%e3%81%a8gpt-4-5%ef%bc%9aai%e9%9d%a9%e5%91%bd%e3%82%92%e3%83%aa%e3%83%bc%e3%83%89%e3%81%99%e3%82%8b%e3%81%ae%e3%81%af%e8%aa%b0%e3%81%8b/">ジェミニ2.5プロとGPT-4.5：AI革命をリードするのは誰か？</a> appeared first on <a href="https://meetcody.ai/ja/">Cody - The AI Trained on Your Business</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>GPT-4.5対クロード3.7ソネット：AIの進化を深く掘り下げる</title>
		<link>https://meetcody.ai/ja/blog/gpt-4-5%e5%af%be%e3%82%af%e3%83%ad%e3%83%bc%e3%83%893-7%e3%82%bd%e3%83%8d%e3%83%83%e3%83%88%ef%bc%9aai%e3%81%ae%e9%80%b2%e5%8c%96%e3%82%92%e6%b7%b1%e3%81%8f%e6%8e%98%e3%82%8a%e4%b8%8b%e3%81%92/</link>
		
		<dc:creator><![CDATA[Om Kamath]]></dc:creator>
		<pubDate>Sun, 02 Mar 2025 15:52:48 +0000</pubDate>
				<category><![CDATA[カテゴリーなし]]></category>
		<guid isPermaLink="false">https://meetcody.ai/blog/gpt-4-5%e5%af%be%e3%82%af%e3%83%ad%e3%83%bc%e3%83%893-7%e3%82%bd%e3%83%8d%e3%83%83%e3%83%88%ef%bc%9aai%e3%81%ae%e9%80%b2%e5%8c%96%e3%82%92%e6%b7%b1%e3%81%8f%e6%8e%98%e3%82%8a%e4%b8%8b%e3%81%92/</guid>

					<description><![CDATA[<p>人工知能を取り巻く環境は急速に進化しているが、最近目立ったのは2つのモデルだ：GPT-4.5とクロード3.7ソネットだ。GPT-4.5」と「Claude 3.7 Sonnet」です。これらの高度な言語モデルは、AIの能力を大きく飛躍させるもので、それぞれが独自の強みを発揮します。 OpenAIのGPT-4.5は、マイナーアップデートながら、幻覚の軽減や自然な会話の強化などの改善を誇っている。一方、AnthropicのClaude 3.7 Sonnetは、その卓越したコーディング能力とコストパフォーマンスで注目を集めている。両モデルとも、開発者や研究者から最先端のAIソリューションを求める企業まで、幅広いユーザーに対応している。 これらのモデルがAIで可能なことの限界を押し広げるにつれて、様々な業界における期待や用途が再形成され、近い将来さらに大きな変革をもたらす舞台が整いつつある。 GPT-4.5とクロード3.7ソネットの主な特徴 GPT-4.5とクロード3.7ソネットは、それぞれ独自の強みを持ち、AIの展望に大きな進歩をもたらす。GPT-4.5は、OpenAIの「これまでで最大かつ最も知識豊富なモデル」として説明されており、教師なし学習を拡張することに重点を置き、幻覚を減らしつつ、単語の知識と直感を強化します。このモデルは推論能力を向上させ、より深い文脈理解によってチャットでの対話を強化することに優れています。 一方、クロード3.7ソネットは、画期的なハイブリッド推論モデルを導入しており、素早い応答と、段階を追った拡張的な思考の両方を可能にしています。特にコーディングとフロントエンド・ウェブ開発で輝きを放ち、優れた指示追従能力と一般的な推論能力を発揮します。 主な改善点 GPT-4.5：教師なし学習と会話機能の強化 クロード3.7ソネット高度なハイブリッド推論と優れたコーディング能力 両方のモデル改善されたマルチモーダル能力と適応的推論 パフォーマンスと評価 タスク GPT-4.5（対4o） クロード 3.7 ソネット* （対 3.5） コーディング 向上 大幅に上回る 数学 中程度の改善 AIME&#8217;24の問題で改善 理由 同様のパフォーマンス 同様のパフォーマンス マルチモーダル 同様のパフォーマンス 同様のパフォーマンス * 思考を広げずに GPT-4.5では、チャットでの対話が顕著に改善され、幻覚が減少しました。人間のテスターは、以前のモデルと比べてより正確で事実に基づいていると評価しており、より信頼できる会話パートナーとなっています。 一方、クロード3.7ソネットは、リアルタイム・アプリケーションやコーディング・タスクで卓越した効率性を発揮。SWE-bench VerifiedとTAU-benchで最先端の性能を達成し、ソフトウェアエンジニアリングと複雑な問題解決におけるその能力を示しています。さらに、GPT-4.5と比較してスループットが高いため、迅速な応答や大量のデータ処理を必要とするタスクに特に適しています。 価格とアクセシビリティ GPT-4.5は、素晴らしい能力を誇る一方で、高額な値札が付いている。GPT-4.5の価格は前モデルのGPT-4の75倍で、その大幅な値上げを正当化する明確な理由もない。この価格戦略は、多くの潜在的なユーザーへのアクセスを制限するかもしれない。 対照的に、クロード3.7ソネットはより手頃なオプションを提供している。その価格体系はかなり競争力がある： GPT-4.5と比べ、投入トークンが25倍安い 出力トークンが10倍安い 具体的な価格設定：100万投入トークンあたり3ドル、100万出力トークンあたり15ドル GPT-4.5は現在、GPT Proユーザーと開発者がAPI経由でアクセス可能で、Plusユーザー、教育機関、チームにもアクセスを拡大する予定です。一方、クロード3.7ソネットは、クロードの全プラン（フリー、プロ、チーム、エンタープライズ）、およびAnthropic API、Amazon Bedrock、Google CloudのVertex AIを通じて、より幅広いアクセスを提供しています。 このような価格設定や利用しやすさの違いは、各モデルの潜在的な普及率やユースケースに大きく影響し、クロード3.7ソネットは、費用対効果や幅広い利用可能性から、より幅広いユーザーにアピールできる可能性がある。 使用例 GPT-4.5とクロード3.7ソネットはともに、多様な実世界のアプリケーションに対応するユニークな機能を備えています。GPT-4.5は高度な会話パートナーとして優れており、精度と幻覚の低減において従来のモデルを上回っています。文脈理解の向上により、カスタマーサービス、コンテンツ作成、パーソナライズされた学習体験に理想的です。 一方、クロード3.7ソネットは、コーディングとソフトウェア開発の領域で輝いている。クロード・コードで実証されたそのエージェント的コーディング機能は、コードの検索、テストの実行、コマンドラインツールの使用などのタスクを自動化する。これは、開発プロセスの合理化を目指す企業にとって、非常に貴重な資産となる。<a class="excerpt-read-more" href="https://meetcody.ai/ja/blog/gpt-4-5%e5%af%be%e3%82%af%e3%83%ad%e3%83%bc%e3%83%893-7%e3%82%bd%e3%83%8d%e3%83%83%e3%83%88%ef%bc%9aai%e3%81%ae%e9%80%b2%e5%8c%96%e3%82%92%e6%b7%b1%e3%81%8f%e6%8e%98%e3%82%8a%e4%b8%8b%e3%81%92/" title="ReadGPT-4.5対クロード3.7ソネット：AIの進化を深く掘り下げる">... Read more &#187;</a></p>
<p>The post <a href="https://meetcody.ai/ja/blog/gpt-4-5%e5%af%be%e3%82%af%e3%83%ad%e3%83%bc%e3%83%893-7%e3%82%bd%e3%83%8d%e3%83%83%e3%83%88%ef%bc%9aai%e3%81%ae%e9%80%b2%e5%8c%96%e3%82%92%e6%b7%b1%e3%81%8f%e6%8e%98%e3%82%8a%e4%b8%8b%e3%81%92/">GPT-4.5対クロード3.7ソネット：AIの進化を深く掘り下げる</a> appeared first on <a href="https://meetcody.ai/ja/">Cody - The AI Trained on Your Business</a>.</p>
]]></description>
										<content:encoded><![CDATA[<div class="mb-2 text-3xl font-bold">人工知能を取り巻く環境は<a href="https://www.chatbase.co/blog/ai-trends" target="_blank" rel="noopener noreferrer">急速に進化して</a>いるが、最近目立ったのは2つのモデルだ：GPT-4.5とクロード3.7ソネットだ。GPT-4.5」と「Claude 3.7 Sonnet」です。これらの高度な言語モデルは、AIの能力を大きく飛躍させるもので、それぞれが独自の強みを発揮します。 </div>
<div class="prose mt-8 max-w-full">
<p>OpenAIのGPT-4.5は、マイナーアップデートながら、幻覚の軽減や自然な会話の強化などの<a href="https://research.aimultiple.com/future-of-large-language-models/" target="_blank" rel="noopener noreferrer">改善を誇って</a>いる。一方、AnthropicのClaude 3.7 Sonnetは、その卓越したコーディング能力とコストパフォーマンスで注目を集めている。両モデルとも、開発者や研究者から最先端のAIソリューションを求める企業まで、幅広いユーザーに対応している。  </p>
<p>これらのモデルがAIで可能なことの限界を押し広げるにつれて、様々な業界における期待や用途が再形成され、近い将来さらに大きな変革をもたらす舞台が整いつつある。</p>
<h2>GPT-4.5とクロード3.7ソネットの主な特徴</h2>
<p>GPT-4.5とクロード3.7ソネットは、それぞれ独自の強みを持ち、AIの展望に大きな進歩をもたらす。GPT-4.5は、OpenAIの「これまでで最大かつ最も知識豊富なモデル」として説明されており、教師なし学習を拡張することに重点を置き、幻覚を減らしつつ、単語の知識と直感を強化します。このモデルは推論能力を向上させ、より深い文脈理解によってチャットでの対話を強化することに優れています。  </p>
<p>一方、クロード3.7ソネットは、画期的な<a href="https://www.wired.com/story/anthropic-world-first-hybrid-reasoning-ai-model/" target="_blank" rel="noopener noreferrer">ハイブリッド推論モデルを</a>導入しており、素早い応答と、段階を追った拡張的な思考の両方を可能にしています。特にコーディングとフロントエンド・ウェブ開発で輝きを放ち、優れた指示追従能力と一般的な推論能力を発揮します。 </p>
<h3>主な改善点</h3>
<ul class="tight" data-tight="true">
<li><strong>GPT-4.5</strong>：教師なし学習と会話機能の強化</li>
<li><strong>クロード3.7ソネット</strong>高度なハイブリッド推論と優れたコーディング能力</li>
<li><strong>両方のモデル</strong>改善されたマルチモーダル能力と適応的推論</li>
</ul>
<h2>パフォーマンスと評価</h2>
<table>
<colgroup>
<col>
<col>
<col></colgroup>
<tbody>
<tr>
<th colspan="1" rowspan="1">タスク</th>
<th colspan="1" rowspan="1">GPT-4.5（対4o）</th>
<th colspan="1" rowspan="1">クロード 3.7 ソネット* （対 3.5）</th>
</tr>
<tr>
<td colspan="1" rowspan="1">コーディング</td>
<td colspan="1" rowspan="1">向上</td>
<td colspan="1" rowspan="1">大幅に上回る</td>
</tr>
<tr>
<td colspan="1" rowspan="1">数学</td>
<td colspan="1" rowspan="1">中程度の改善</td>
<td colspan="1" rowspan="1">AIME&#8217;24の問題で改善</td>
</tr>
<tr>
<td colspan="1" rowspan="1">理由</td>
<td colspan="1" rowspan="1">同様のパフォーマンス</td>
<td colspan="1" rowspan="1">同様のパフォーマンス</td>
</tr>
<tr>
<td colspan="1" rowspan="1">マルチモーダル</td>
<td colspan="1" rowspan="1">同様のパフォーマンス</td>
<td colspan="1" rowspan="1">同様のパフォーマンス</td>
</tr>
</tbody>
</table>
<p><em>* 思考を広げずに</em></p>
<p>GPT-4.5では、チャットでの対話が顕著に改善され、幻覚が減少しました。人間のテスターは、以前のモデルと比べてより正確で事実に基づいていると評価しており、より信頼できる会話パートナーとなっています。 </p>
<p><img decoding="async" class="aligncenter wp-image-50752 size-full" src="https://meetcody.ai/wp-content/uploads/2025/03/ad_4nxcu8pbfgpg50z3vayf8qz2j48w88v2dsz64zmx0ceoewmsmdljsogue_2jaraxulupovh-9fvfu1difqlvifvpo6pgnzcskmyexz8rg-bojgew1ws9hh0jxjm4rxwrnuuf_eqngjq.avif" alt="GPT-4.5ベンチマーク" width="1600" height="806"></p>
<p>一方、クロード3.7ソネットは、リアルタイム・アプリケーションやコーディング・タスクで卓越した効率性を発揮。SWE-bench VerifiedとTAU-benchで最先端の性能を達成し、ソフトウェアエンジニアリングと複雑な問題解決におけるその能力を示しています。さらに、GPT-4.5と比較してスループットが高いため、迅速な応答や大量のデータ処理を必要とするタスクに特に適しています。  </p>
<div id="attachment_50761" style="width: 1610px" class="wp-caption aligncenter"><img loading="lazy" decoding="async" aria-describedby="caption-attachment-50761" class="wp-image-50761 size-full" src="https://meetcody.ai/wp-content/uploads/2025/03/ad_4nxfwlui9hnxwa7m9pwxfamvld-pfnfd2qx4zwapkokerz698-so8gbeibusnnfj1viwjndt46kkam86tzmuzfiboqsnboa-xjwtam6kurrcs5uox4bvfbraqim0usgr8jxxpun57zg.avif" alt="クロード 3.7 ソネット・ベンチマーク" width="1600" height="1452" srcset="https://meetcody.ai/wp-content/uploads/2025/03/ad_4nxfwlui9hnxwa7m9pwxfamvld-pfnfd2qx4zwapkokerz698-so8gbeibusnnfj1viwjndt46kkam86tzmuzfiboqsnboa-xjwtam6kurrcs5uox4bvfbraqim0usgr8jxxpun57zg.avif 1600w, https://meetcody.ai/wp-content/uploads/2025/03/ad_4nxfwlui9hnxwa7m9pwxfamvld-pfnfd2qx4zwapkokerz698-so8gbeibusnnfj1viwjndt46kkam86tzmuzfiboqsnboa-xjwtam6kurrcs5uox4bvfbraqim0usgr8jxxpun57zg-300x272.avif 300w, https://meetcody.ai/wp-content/uploads/2025/03/ad_4nxfwlui9hnxwa7m9pwxfamvld-pfnfd2qx4zwapkokerz698-so8gbeibusnnfj1viwjndt46kkam86tzmuzfiboqsnboa-xjwtam6kurrcs5uox4bvfbraqim0usgr8jxxpun57zg-1024x929.avif 1024w, https://meetcody.ai/wp-content/uploads/2025/03/ad_4nxfwlui9hnxwa7m9pwxfamvld-pfnfd2qx4zwapkokerz698-so8gbeibusnnfj1viwjndt46kkam86tzmuzfiboqsnboa-xjwtam6kurrcs5uox4bvfbraqim0usgr8jxxpun57zg-768x697.avif 768w, https://meetcody.ai/wp-content/uploads/2025/03/ad_4nxfwlui9hnxwa7m9pwxfamvld-pfnfd2qx4zwapkokerz698-so8gbeibusnnfj1viwjndt46kkam86tzmuzfiboqsnboa-xjwtam6kurrcs5uox4bvfbraqim0usgr8jxxpun57zg-1536x1394.avif 1536w, https://meetcody.ai/wp-content/uploads/2025/03/ad_4nxfwlui9hnxwa7m9pwxfamvld-pfnfd2qx4zwapkokerz698-so8gbeibusnnfj1viwjndt46kkam86tzmuzfiboqsnboa-xjwtam6kurrcs5uox4bvfbraqim0usgr8jxxpun57zg-714x648.avif 714w" sizes="auto, (max-width: 1600px) 100vw, 1600px" /><p id="caption-attachment-50761" class="wp-caption-text">ソースアンソロピック</p></div>
<h2>価格とアクセシビリティ</h2>
<p>GPT-4.5は、素晴らしい能力を誇る一方で、高額な値札が付いている。GPT-4.5の価格は前モデルのGPT-4の75倍で、その大幅な値上げを正当化する明確な理由もない。この価格戦略は、多くの潜在的なユーザーへのアクセスを制限するかもしれない。  </p>
<p>対照的に、クロード3.7ソネットはより手頃なオプションを提供している。その価格体系はかなり競争力がある： </p>
<ol class="tight" data-tight="true">
<li>GPT-4.5と比べ、投入トークンが25倍安い</li>
<li>出力トークンが10倍安い</li>
<li>具体的な価格設定：100万投入トークンあたり3ドル、100万出力トークンあたり15ドル</li>
</ol>
<p>GPT-4.5は現在、GPT Proユーザーと開発者がAPI経由でアクセス可能で、Plusユーザー、教育機関、チームにもアクセスを拡大する予定です。一方、クロード3.7ソネットは、クロードの全プラン（フリー、プロ、チーム、エンタープライズ）、およびAnthropic API、Amazon Bedrock、Google CloudのVertex AIを通じて、より幅広いアクセスを提供しています。 </p>
<p>このような価格設定や利用しやすさの違いは、各モデルの潜在的な普及率やユースケースに大きく影響し、クロード3.7ソネットは、費用対効果や幅広い利用可能性から、より幅広いユーザーにアピールできる可能性がある。</p>
<h2>使用例</h2>
<p>GPT-4.5とクロード3.7ソネットはともに、多様な実世界の<a href="https://aloa.co/blog/large-language-model-applications" target="_blank" rel="noopener noreferrer">アプリケーションに</a>対応するユニークな機能を備えています。GPT-4.5は高度な<a href="https://meetcody.ai/use-cases/factual-research-assistant/">会話パートナーとして優れて</a>おり、精度と幻覚の低減において従来のモデルを上回っています。文脈理解の向上により、カスタマーサービス、コンテンツ作成、パーソナライズされた学習体験に理想的です。  </p>
<p>一方、クロード3.7ソネットは、コーディングとソフトウェア開発の領域で輝いている。<a href="https://docs.anthropic.com/en/docs/agents-and-tools/claude-code/overview" target="_blank" rel="noopener noreferrer">クロード・コードで</a>実証されたそのエージェント的コーディング機能は、コードの検索、テストの実行、コマンドラインツールの使用などのタスクを自動化する。これは、開発プロセスの合理化を目指す企業にとって、非常に貴重な資産となる。  </p>
<h2>今後の展望と結論</h2>
<p>GPT-4.5とクロード3.7ソネットのリリースは、AI開発における重要なマイルストーンであり、さらなる画期的な進歩のための舞台となる。GPT-4.5はマイナーアップデートと見られているが、推論能力を強化した将来のモデルの基礎を築くものである。ハイブリッド推論モデルを持つClaude 3.7 Sonnetは、AIの状況にダイナミックな変化をもたらし、将来の開発の方向性に影響を与える可能性がある。  </p>
<p>これらのモデルが進化を続けるにつれて、教師なし学習、推論能力、タスク固有の最適化がさらに改善されることが予想される。教師なし学習と推論の相補的な性質は、将来のAIモデルがさらに洗練された問題解決能力を示す可能性が高いことを示唆している。 </p>
</div>
<p>The post <a href="https://meetcody.ai/ja/blog/gpt-4-5%e5%af%be%e3%82%af%e3%83%ad%e3%83%bc%e3%83%893-7%e3%82%bd%e3%83%8d%e3%83%83%e3%83%88%ef%bc%9aai%e3%81%ae%e9%80%b2%e5%8c%96%e3%82%92%e6%b7%b1%e3%81%8f%e6%8e%98%e3%82%8a%e4%b8%8b%e3%81%92/">GPT-4.5対クロード3.7ソネット：AIの進化を深く掘り下げる</a> appeared first on <a href="https://meetcody.ai/ja/">Cody - The AI Trained on Your Business</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>錯綜する彗星：エージェント検索への大胆な飛躍</title>
		<link>https://meetcody.ai/ja/blog/%e9%8c%af%e7%b6%9c%e3%81%99%e3%82%8b%e5%bd%97%e6%98%9f%ef%bc%9a%e3%82%a8%e3%83%bc%e3%82%b8%e3%82%a7%e3%83%b3%e3%83%88%e6%a4%9c%e7%b4%a2%e3%81%b8%e3%81%ae%e5%a4%a7%e8%83%86%e3%81%aa%e9%a3%9b%e8%ba%8d/</link>
		
		<dc:creator><![CDATA[Om Kamath]]></dc:creator>
		<pubDate>Thu, 27 Feb 2025 17:53:18 +0000</pubDate>
				<category><![CDATA[カテゴリーなし]]></category>
		<guid isPermaLink="false">https://meetcody.ai/blog/%e9%8c%af%e7%b6%9c%e3%81%99%e3%82%8b%e5%bd%97%e6%98%9f%ef%bc%9a%e3%82%a8%e3%83%bc%e3%82%b8%e3%82%a7%e3%83%b3%e3%83%88%e6%a4%9c%e7%b4%a2%e3%81%b8%e3%81%ae%e5%a4%a7%e8%83%86%e3%81%aa%e9%a3%9b%e8%ba%8d/</guid>

					<description><![CDATA[<p>AIを搭載した検索エンジンの巨人、Perplexityが最新のベンチャー企業、Cometと呼ばれる革新的なウェブ・ブラウザでテック界に波紋を広げている。Cometは「A Browser forAgenticSearch by Perplexity」と銘打たれ、競争の激しいブラウザ市場に大胆な一歩を踏み出した。デザインやリリース時期についての詳細はまだ明らかにされていないが、同社はすでにサインアップリストを立ち上げており、Cometが「間もなく登場する」ことを予告している。 この動きは、パープレクシティが大きく成長している時に行われた。90億ドルという驚異的な評価を受けている同社は、現在、検索エンジンを通じて毎週1億件以上のクエリを処理している。Cometの導入は、Perplexityがその影響力を検索以外にも拡大し、ユーザーのウェブとの関わり方を再構築する可能性があることを意味する。期待が高まる中、CometはPerplexityの拡大するデジタル・エコシステムにおいて極めて重要な要素となる準備が整っている。 コメットの主な特徴 コメットは、自律的なタスク実行を可能にする強力な機能である「エージェント検索」を活用している。つまり、ユーザーはフライトの予約や予約管理のような複雑なタスクをブラウザに委ねることができ、生産性が大幅に向上します。 Chromiumベースの基盤上に構築されたCometは、クロスプラットフォームの互換性を保証し、デスクトップとモバイルデバイス間でシームレスな体験を提供します。この設計は、確立されたブラウザ技術の安定性とPerplexityの最先端のAIイノベーションを組み合わせたものです。 深いリサーチの統合：コメットは包括的な分析ツールを提供し、ブラウザー内で直接詳細な調査を容易にします。 リアルタイムの情報処理：正確性と信頼性を保証し、出典の引用を含む最新の情報を利用できます。 豊富なアプリケーション統合：800以上のアプリケーションをサポートするCometは、ユーザーのデジタル活動の中心的なハブになることを目指しています。 従来のブラウザー機能にAIを融合させることで、Cometはユーザーのウェブとの接し方を変え、生産性と情報処理の状況を変える可能性を秘めている。Perplexityが言うように、Cometはまさに「エージェント検索のためのブラウザ」であり、インテリジェントなウェブナビゲーションの新時代を約束する。 戦略的ポジショニングと市場背景 PerplexityがCometで競争の激しいブラウザ市場に参入する際、Google Chromeのような既存プレイヤーや、The Browser CompanyのDiaのようなAIを強化した新興ブラウザからの手ごわい挑戦に直面する。しかし、高度なタスク自動化機能を備えたAI搭載のChromiumベースのブラウザというCometのユニークなポジショニングは、従来の製品とは一線を画している。 Google Chromeが膨大なユーザーベースと基本的なAI機能を誇る一方で、Cometは洗練されたAI機能、広範なアプリ統合、深いリサーチツール-すべて追加の拡張機能を必要としない-によって差別化を図ることを目指している。このアプローチは、よりインテリジェントで合理的なブラウジング体験を求めるユーザーにアピールし、特定のセグメントにおけるクロームの優位性に挑戦する可能性がある。 Perplexity社のCometのマーケティング戦略は、すでに毎週1億件以上のクエリを処理している既存の検索エンジンのユーザーベースを巧みに活用している。Perplexityは、この既存のユーザーを活用することで、Cometのスムーズな導入を促進し、競争の激しいブラウザー業界において、ユーザー獲得とエンゲージメントで大きなアドバンテージを得る可能性を狙っている。 法的および倫理的考察 パープレクシティがコメットでブラウザ市場に参入する際、同社は技術的な課題だけでなく、法的・倫理的な大きなハードルにも直面している。同社は最近、コンテンツ利用をめぐる大手出版社との法的紛争に巻き込まれている。ニューズ・コーポレーションのダウ・ジョーンズとニューヨーク・ポストはパープレクシティ社を相手取って訴訟を起こし、無許可のコンテンツ複製を非難し、同社を &#8220;コンテンツ・クレプトクラシー &#8220;とレッテルを貼った。さらに、ニューヨーク・タイムズ紙は営業停止を通告し、法的圧力をさらに強めている。 これらの疑惑に対し、パープレクシティはパブリッシャーのコンテンツを尊重していると主張し、メディア・アウトレット向けに収益分配プログラムを導入した。この動きは、懸念に対処し、コンテンツ制作者とのより協力的な関係を確立しようとする試みと思われる。しかし、このプログラムが法的紛争の解決に有効かどうかはまだわからない。 Q：AIによるウェブ閲覧の倫理的意味合いは？ A: CometのようなAIを搭載したブラウザーの導入は、データプライバシーとユーザーの自律性に関する重要な倫理的問題を提起している。マーク・トンプソンなどのサイバーセキュリティ・アナリストは、AI駆動のブラウジング・ツールを使用する際に、ユーザー・データがどのように収集、処理され、共有される可能性があるかについて懸念を表明しています。Cometは、エージェント型検索や広範なアプリの統合といった機能を通じてウェブ・インタラクションに革命を起こすことを約束する一方で、透明性のあるデータ慣行と強固なプライバシー保護の必要性を増幅させている。 専門家の意見と業界の洞察 Perplexity社のCometブラウザが市場参入の準備を進める中、専門家たちがその潜在的な影響と意義について意見を交わしている。著名なAI研究者であるサラ・チェン博士は、Cometはその高度なエージェント検索機能により、ユーザーのオンライン情報への接し方を根本的に変える可能性があると指摘している。この視点は、Perplexity社の急成長と一致している。同社のAI検索エンジンは現在、毎週約1億件のクエリを処理していることからも明らかだ。 こうした懸念にもかかわらず、業界の観測筋はウェブ技術におけるAI統合の著しい成長を予測している。Perplexityの90億ドルという評価額と、AI検索エンジン分野でのトップ・コンペティターとしての位置づけは、この傾向を裏付けている。Cometは単なる新製品ではなく、イノベーションと責任あるAI実装の必要性のバランスを取りながら、インターネットをどのように認識し、どのように相互作用するかを変える可能性を示している。 これが検索を変える？ 検索エンジンへのアプローチと同様に、ウェブ・ブラウジングを再発明するという同社のビジョンは、AI駆動型ブラウザが標準となる未来を示唆している。Perplexityの急速な拡大と革新的な製品の導入により、Cometはウェブ技術におけるAI統合の拡大傾向に資本参加する態勢を整えている。 ユーザーがよりインテリジェントでタスク指向のブラウジング体験に慣れるにつれ、ブラウザ市場は大きな変化を見せるかもしれない。Perplexity が Comet のエージェント型検索機能に注力することで、デジタル・インタラクションが再定義され、複雑なオンライン・タスクが効率化され、ブラウジングの習慣が再構築される可能性がある。AIがテクノロジーの様々な側面に浸透し続ける中、Cometは、ウェブブラウザがインテリジェントなアシスタントとして機能し、生産性を向上させ、デジタル世界のナビゲート方法を変革する未来に向けた大胆な一歩を表している。</p>
<p>The post <a href="https://meetcody.ai/ja/blog/%e9%8c%af%e7%b6%9c%e3%81%99%e3%82%8b%e5%bd%97%e6%98%9f%ef%bc%9a%e3%82%a8%e3%83%bc%e3%82%b8%e3%82%a7%e3%83%b3%e3%83%88%e6%a4%9c%e7%b4%a2%e3%81%b8%e3%81%ae%e5%a4%a7%e8%83%86%e3%81%aa%e9%a3%9b%e8%ba%8d/">錯綜する彗星：エージェント検索への大胆な飛躍</a> appeared first on <a href="https://meetcody.ai/ja/">Cody - The AI Trained on Your Business</a>.</p>
]]></description>
										<content:encoded><![CDATA[<div class="relative mt-8">
<div class="prose max-w-full">
<p>AIを搭載した検索エンジンの巨人、Perplexityが最新のベンチャー企業、Cometと呼ばれる革新的なウェブ・ブラウザでテック界に波紋を広げている。Cometは「A Browser for<a href="https://www.uipath.com/ai/agentic-ai" target="_blank" rel="noopener noreferrer">Agentic</a>Search by Perplexity」と銘打たれ、競争の激しいブラウザ市場に大胆な一歩を踏み出した。デザインやリリース時期についての詳細はまだ明らかにされていないが、同社はすでにサインアップリストを立ち上げており、Cometが「間もなく登場する」ことを予告している。 </p>
<p>この動きは、パープレクシティが大きく成長している時に行われた。90億ドルという驚異的な評価を受けている同社は、現在、検索エンジンを通じて毎週1億件以上のクエリを処理している。Cometの導入は、Perplexityがその影響力を検索以外にも拡大し、ユーザーのウェブとの関わり方を再構築する可能性があることを意味する。期待が高まる中、CometはPerplexityの拡大するデジタル・エコシステムにおいて極めて重要な要素となる準備が整っている。   </p>
<h2>コメットの主な特徴</h2>
<p>コメットは、自律的なタスク実行を可能にする強力な機能である「エージェント検索」を活用している。つまり、ユーザーはフライトの予約や予約管理のような複雑なタスクをブラウザに委ねることができ、生産性が大幅に向上します。 </p>
<p><a href="https://www.youtube.com/watch?v=SrJrd37xzBg" target="_blank" rel="noopener noreferrer">Chromiumベースの基盤</a>上に構築されたCometは、クロスプラットフォームの互換性を保証し、デスクトップとモバイルデバイス間でシームレスな体験を提供します。この設計は、確立されたブラウザ技術の安定性とPerplexityの最先端のAIイノベーションを組み合わせたものです。 </p>
<ul class="tight" data-tight="true">
<li><strong>深いリサーチの統合：</strong>コメットは包括的な分析ツールを提供し、ブラウザー内で直接詳細な調査を容易にします。</li>
<li><strong>リアルタイムの情報処理：</strong>正確性と信頼性を保証し、出典の引用を含む最新の情報を利用できます。</li>
<li><strong>豊富なアプリケーション統合：</strong>800以上のアプリケーションをサポートするCometは、ユーザーのデジタル活動の中心的なハブになることを目指しています。</li>
</ul>
<p>従来のブラウザー機能にAIを融合させることで、Cometはユーザーのウェブとの接し方を変え、生産性と情報処理の状況を変える可能性を秘めている。Perplexityが言うように、Cometはまさに「エージェント検索のためのブラウザ」であり、インテリジェントなウェブナビゲーションの新時代を約束する。 </p>
<h2>戦略的ポジショニングと市場背景</h2>
<p>PerplexityがCometで競争の激しいブラウザ市場に参入する際、Google Chromeのような既存プレイヤーや、The Browser CompanyのDiaのようなAIを強化した新興ブラウザからの手ごわい挑戦に直面する。しかし、高度なタスク自動化機能を備えたAI搭載のChromiumベースのブラウザというCometのユニークなポジショニングは、従来の製品とは一線を画している。 </p>
<p>Google Chromeが膨大なユーザーベースと基本的なAI機能を誇る一方で、Cometは洗練されたAI機能、広範なアプリ統合、深いリサーチツール-すべて追加の拡張機能を必要としない-によって差別化を図ることを目指している。このアプローチは、よりインテリジェントで合理的なブラウジング体験を求めるユーザーにアピールし、特定のセグメントにおけるクロームの優位性に挑戦する可能性がある。 </p>
<p>Perplexity社のCometのマーケティング戦略は、すでに毎週1億件以上のクエリを処理している既存の検索エンジンのユーザーベースを巧みに活用している。Perplexityは、この既存のユーザーを活用することで、Cometのスムーズな導入を促進し、競争の激しいブラウザー業界において、ユーザー獲得とエンゲージメントで大きなアドバンテージを得る可能性を狙っている。 </p>
<h2>法的および倫理的考察</h2>
<p>パープレクシティがコメットでブラウザ市場に参入する際、同社は技術的な課題だけでなく、法的・倫理的な大きなハードルにも直面している。同社は最近、コンテンツ利用をめぐる大手出版社との法的紛争に巻き込まれている。ニューズ・コーポレーションのダウ・ジョーンズとニューヨーク・ポストはパープレクシティ社を相手取って訴訟を起こし、無許可のコンテンツ複製を非難し、同社を &#8220;コンテンツ・クレプトクラシー &#8220;とレッテルを貼った。さらに、ニューヨーク・タイムズ紙は営業停止を通告し、法的圧力をさらに強めている。   </p>
<p>これらの疑惑に対し、パープレクシティはパブリッシャーのコンテンツを尊重していると主張し、メディア・アウトレット向けに収益分配プログラムを導入した。この動きは、懸念に対処し、コンテンツ制作者とのより協力的な関係を確立しようとする試みと思われる。しかし、このプログラムが法的紛争の解決に有効かどうかはまだわからない。  </p>
<h3>Q：AIによるウェブ閲覧の倫理的意味合いは？</h3>
<p>A: CometのようなAIを搭載したブラウザーの導入は、データプライバシーとユーザーの自律性に関する重要な倫理的問題を提起している。マーク・トンプソンなどのサイバーセキュリティ・アナリストは、AI駆動のブラウジング・ツールを使用する際に、<a href="https://www.ibm.com/think/topics/ai-ethics" target="_blank" rel="noopener noreferrer">ユーザー・データが</a>どのように収集、処理され、共有される可能性があるかについて懸念を表明しています。Cometは、エージェント型検索や広範なアプリの統合といった機能を通じてウェブ・インタラクションに革命を起こすことを約束する一方で、透明性のあるデータ慣行と強固なプライバシー保護の必要性を増幅させている。  </p>
<h2>専門家の意見と業界の洞察</h2>
<p>Perplexity社のCometブラウザが市場参入の準備を進める中、専門家たちがその潜在的な影響と意義について意見を交わしている。著名なAI研究者であるサラ・チェン博士は、Cometはその高度な<a href="https://meetcody.ai/blog/top-ai-web-browsing-agents/" target="_blank" rel="noopener noreferrer">エージェント検索機能により</a>、ユーザーのオンライン情報への接し方を根本的に変える可能性があると指摘している。この視点は、Perplexity社の急成長と一致している。同社のAI検索エンジンは現在、毎週約1億件のクエリを処理していることからも明らかだ。  </p>
<p>こうした懸念にもかかわらず、業界の観測筋はウェブ技術におけるAI統合の著しい成長を予測している。Perplexityの90億ドルという評価額と、AI検索エンジン分野でのトップ・コンペティターとしての位置づけは、この傾向を裏付けている。Cometは単なる新製品ではなく、イノベーションと責任あるAI実装の必要性のバランスを取りながら、インターネットをどのように認識し、どのように相互作用するかを変える可能性を示している。  </p>
<h2>これが検索を変える？</h2>
<p>検索エンジンへのアプローチと同様に、ウェブ・ブラウジングを再発明するという同社のビジョンは、AI駆動型ブラウザが標準となる未来を示唆している。Perplexityの急速な拡大と革新的な製品の導入により、Cometはウェブ技術におけるAI統合の拡大傾向に資本参加する態勢を整えている。 </p>
<p>ユーザーがよりインテリジェントでタスク指向のブラウジング体験に慣れるにつれ、ブラウザ市場は大きな変化を見せるかもしれない。Perplexity が Comet のエージェント型検索機能に注力することで、デジタル・インタラクションが再定義され、複雑なオンライン・タスクが効率化され、ブラウジングの習慣が再構築される可能性がある。AIがテクノロジーの様々な側面に浸透し続ける中、Cometは、ウェブブラウザがインテリジェントなアシスタントとして機能し、生産性を向上させ、デジタル世界のナビゲート方法を変革する未来に向けた大胆な一歩を表している。  </p>
</div>
</div>
<p>The post <a href="https://meetcody.ai/ja/blog/%e9%8c%af%e7%b6%9c%e3%81%99%e3%82%8b%e5%bd%97%e6%98%9f%ef%bc%9a%e3%82%a8%e3%83%bc%e3%82%b8%e3%82%a7%e3%83%b3%e3%83%88%e6%a4%9c%e7%b4%a2%e3%81%b8%e3%81%ae%e5%a4%a7%e8%83%86%e3%81%aa%e9%a3%9b%e8%ba%8d/">錯綜する彗星：エージェント検索への大胆な飛躍</a> appeared first on <a href="https://meetcody.ai/ja/">Cody - The AI Trained on Your Business</a>.</p>
]]></content:encoded>
					
		
		
			</item>
	</channel>
</rss>
