<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>GTP-4ビジョン Archives - Cody - The AI Trained on Your Business</title>
	<atom:link href="https://meetcody.ai/ja/blog/tag/gtp-4%e3%83%93%e3%82%b8%e3%83%a7%e3%83%b3/feed/" rel="self" type="application/rss+xml" />
	<link></link>
	<description>AI Powered Knowledge Base for Employees</description>
	<lastBuildDate>Thu, 16 Nov 2023 11:49:19 +0000</lastBuildDate>
	<language>ja</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.8.1</generator>

<image>
	<url>https://meetcody.ai/wp-content/uploads/2025/08/cropped-Cody-Emoji-071-32x32.png</url>
	<title>GTP-4ビジョン Archives - Cody - The AI Trained on Your Business</title>
	<link></link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>GPT-4ビジョン：GPT-4ビジョンは何を可能にし、なぜ重要なのか？</title>
		<link>https://meetcody.ai/ja/blog/%e3%83%93%e3%82%b8%e3%83%a7%e3%83%b3%e4%bb%98%e3%81%8dgpt-4%ef%bc%9agpt-4%e3%81%af%e4%bd%95%e3%81%8c%e3%81%a7%e3%81%8d%e3%80%81%e3%81%aa%e3%81%9c%e9%87%8d%e8%a6%81%e3%81%aa%e3%81%ae%e3%81%8b%ef%bc%9f/</link>
		
		<dc:creator><![CDATA[Oriol Zertuche]]></dc:creator>
		<pubDate>Tue, 07 Nov 2023 18:37:44 +0000</pubDate>
				<category><![CDATA[AIツール]]></category>
		<category><![CDATA[アーティフィシャル・インテリジェンス]]></category>
		<category><![CDATA[gpt-4v]]></category>
		<category><![CDATA[GTP-4ビジョン]]></category>
		<category><![CDATA[オープンAI]]></category>
		<guid isPermaLink="false">https://meetcody.ai/blog/%e3%83%93%e3%82%b8%e3%83%a7%e3%83%b3%e4%bb%98%e3%81%8dgpt-4%ef%bc%9agpt-4%e3%81%af%e4%bd%95%e3%81%8c%e3%81%a7%e3%81%8d%e3%80%81%e3%81%aa%e3%81%9c%e9%87%8d%e8%a6%81%e3%81%aa%e3%81%ae%e3%81%8b%ef%bc%9f/</guid>

					<description><![CDATA[<p>GPT-4ビジョン（GPT-4V）は、ディープラーニングとコンピュータービジョンを組み合わせた、オープンAIによる画期的な進歩である。 このモデルはテキストを理解するだけでなく、ビジュアルコンテンツにまで踏み込んでいる。 GPT-3がテキストベースの理解を得意としていたのに対し、GPT-4ビジョンは視覚的要素をレパートリーに加えることで、飛躍的な進歩を遂げた。 このブログでは、GPT-4ビジョンの魅惑的な世界を探求し、その潜在的なアプリケーション、基礎技術、そしてこの強力なAI開発に関連する倫理的考察を検証する。 GPT-4ビジョン（GPT-4V）とは何ですか？ GPT-4ビジョンは、しばしばGPT-4Vと呼ばれ、人工知能の分野で重要な進歩を遂げた。 これは、画像などの付加的なモダリティを大規模言語モデル（LLM）に統合することを含む。 マルチモーダルLLMは、言語ベースのシステムの能力を拡張し、斬新なインターフェースを導入し、より幅広いタスクを解決し、最終的にはユーザーにユニークな体験を提供する可能性を秘めているからだ。 このモデルは、自然言語理解で有名なGPT-3の成功に基づいている。 GPT-4 Visionは、このようなテキストへの理解を維持するだけでなく、ビジュアルコンテンツを処理・生成する機能を拡張している。 これは私が@bubbleで30分で作ったgpt-4-vision APIのデモです。 URLを受け取り、画像に変換し、Vision APIを通じて送信し、カスタムランディングページ最適化の提案を応答する。 pic.twitter.com/dzRfMuJYsp &#8211; セス・クレイマー (@sethjkramer)2023年11月6日 このマルチモーダルAIモデルは、文字情報と視覚情報の両方を理解するユニークな能力を持っている。 その大きな可能性を垣間見ることができる： ビジュアル質問応答（VQA） GPT-4Vは画像に関する質問に答えることができる。&#8221;この犬は何という種類の犬ですか？&#8221;とか、&#8221;この写真では何が起こっていますか？&#8221;といった答えを提供する。 gpt-4ビジョンAPIで遊び始めたpic.twitter.com/vZmFt5X24S &#8211; イベリック (@Ibelick)2023年11月6日 画像分類 画像内のオブジェクトやシーンを識別し、車、猫、ビーチなどを区別することができる。 画像キャプション GPT-4Vは画像の説明文を生成することができ、&#8221;赤いソファに座る黒猫 &#8220;や &#8220;ビーチでバレーボールをする人々 &#8220;といったフレーズを作ることができる。 画像翻訳 このモデルは、画像内のテキストをある言語から別の言語に翻訳することができる。 クリエイティブ・ライティング GPT-4Vは、テキストを理解し、生成するだけでなく、詩、コード、スクリプト、音楽作品、電子メール、手紙など、さまざまな創造的なコンテンツ形式を作成し、画像をシームレスに組み込むことができます。 続きを読む GPT-4 ターボ 128K コンテキスト：知っておくべきこと GPT-4ビジョンにアクセスするには？ GPT-4ビジョンへのアクセスは、主にOpenAIが提供するAPIを通じて行われる。 これらのAPIにより、開発者はモデルをアプリケーションに統合することができ、さまざまなタスクにその機能を活用することができる。 OpenAIは、GPT-4 Visionのさまざまな価格層と利用プランを提供し、多くのユーザーが利用できるようにしている。 GPT-4ビジョンはAPIを通じて利用できるため、多様なユースケースに対応できる。 GPT-4ビジョンの価格は？ GPT-4 Visionの価格は、使用量、ボリューム、選択した特定のAPIやサービスによって異なる場合があります。 オープンAI 通常、公式ウェブサイトまたは開発者ポータルで詳細な価格情報を提供している。 ユーザーは、価格設定、使用量制限、サブスクリプションのオプションを検討し、最適なプランを決定することができます。<a class="excerpt-read-more" href="https://meetcody.ai/ja/blog/%e3%83%93%e3%82%b8%e3%83%a7%e3%83%b3%e4%bb%98%e3%81%8dgpt-4%ef%bc%9agpt-4%e3%81%af%e4%bd%95%e3%81%8c%e3%81%a7%e3%81%8d%e3%80%81%e3%81%aa%e3%81%9c%e9%87%8d%e8%a6%81%e3%81%aa%e3%81%ae%e3%81%8b%ef%bc%9f/" title="ReadGPT-4ビジョン：GPT-4ビジョンは何を可能にし、なぜ重要なのか？">... Read more &#187;</a></p>
<p>The post <a href="https://meetcody.ai/ja/blog/%e3%83%93%e3%82%b8%e3%83%a7%e3%83%b3%e4%bb%98%e3%81%8dgpt-4%ef%bc%9agpt-4%e3%81%af%e4%bd%95%e3%81%8c%e3%81%a7%e3%81%8d%e3%80%81%e3%81%aa%e3%81%9c%e9%87%8d%e8%a6%81%e3%81%aa%e3%81%ae%e3%81%8b%ef%bc%9f/">GPT-4ビジョン：GPT-4ビジョンは何を可能にし、なぜ重要なのか？</a> appeared first on <a href="https://meetcody.ai/ja/">Cody - The AI Trained on Your Business</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p><span style="font-weight: 400;">GPT-4ビジョン（GPT-4V）は、ディープラーニングとコンピュータービジョンを組み合わせた、オープンAIによる画期的な進歩である。  </span></p>
<p><span style="font-weight: 400;">このモデルはテキストを理解するだけでなく、ビジュアルコンテンツにまで踏み込んでいる。 GPT-3がテキストベースの理解を得意としていたのに対し、GPT-4ビジョンは視覚的要素をレパートリーに加えることで、飛躍的な進歩を遂げた。  </span></p>
<p><span style="font-weight: 400;">このブログでは、GPT-4ビジョンの魅惑的な世界を探求し、その潜在的なアプリケーション、基礎技術、そしてこの強力なAI開発に関連する倫理的考察を検証する。</span></p>
<h2><b>GPT-4ビジョン（GPT-4V）とは何ですか？</b></h2>
<p><span style="font-weight: 400;">GPT-4ビジョンは、しばしばGPT-4Vと呼ばれ、人工知能の分野で重要な進歩を遂げた。 これは、画像などの付加的なモダリティを大規模言語モデル（LLM）に統合することを含む。 マルチモーダルLLMは、言語ベースのシステムの能力を拡張し、斬新なインターフェースを導入し、より幅広いタスクを解決し、最終的にはユーザーにユニークな体験を提供する可能性を秘めているからだ。 このモデルは、自然言語理解で有名なGPT-3の成功に基づいている。 GPT-4 Visionは、このようなテキストへの理解を維持するだけでなく、ビジュアルコンテンツを処理・生成する機能を拡張している。  </span></p>
<blockquote class="twitter-tweet">
<p dir="ltr" lang="en">これは私が<a href="https://twitter.com/bubble?ref_src=twsrc%5Etfw">@</a>bubbleで30分で作ったgpt-4-vision APIのデモです。</p>
<p>URLを受け取り、画像に変換し、Vision APIを通じて送信し、カスタムランディングページ最適化の提案を応答する。  <a href="https://t.co/dzRfMuJYsp">pic.twitter.com/dzRfMuJYsp</a></p>
<p>&#8211; セス・クレイマー (@sethjkramer)<a href="https://twitter.com/sethjkramer/status/1721662666056315294?ref_src=twsrc%5Etfw">2023年11月6日</a></p></blockquote>
<p><script async="" src="https://platform.twitter.com/widgets.js" charset="utf-8"></script></p>
<p><span style="font-weight: 400;">このマルチモーダルAIモデルは、文字情報と視覚情報の両方を理解するユニークな能力を持っている。 その大きな可能性を垣間見ることができる：</span></p>
<h3><b>ビジュアル質問応答（VQA）</b></h3>
<p><span style="font-weight: 400;">GPT-4Vは画像に関する質問に答えることができる。&#8221;この犬は何という種類の犬ですか？&#8221;とか、&#8221;この写真では何が起こっていますか？&#8221;といった答えを提供する。</span></p>
<blockquote class="twitter-tweet">
<p dir="ltr" lang="en">gpt-4ビジョンAPIで遊び始めた<a href="https://t.co/vZmFt5X24S">pic.twitter.com/vZmFt5X24S</a></p>
<p>&#8211; イベリック (@Ibelick)<a href="https://twitter.com/Ibelick/status/1721654235752763878?ref_src=twsrc%5Etfw">2023年11月6日</a></p></blockquote>
<p><script async="" src="https://platform.twitter.com/widgets.js" charset="utf-8"></script></p>
<h3><b>画像分類</b></h3>
<p><span style="font-weight: 400;">画像内のオブジェクトやシーンを識別し、車、猫、ビーチなどを区別することができる。</span></p>
<h3><b>画像キャプション</b></h3>
<p><span style="font-weight: 400;">GPT-4Vは画像の説明文を生成することができ、&#8221;赤いソファに座る黒猫 &#8220;や &#8220;ビーチでバレーボールをする人々 &#8220;といったフレーズを作ることができる。</span></p>
<h3><b>画像翻訳</b></h3>
<p><span style="font-weight: 400;">このモデルは、画像内のテキストをある言語から別の言語に翻訳することができる。</span></p>
<h3><b>クリエイティブ・ライティング</b></h3>
<p><span style="font-weight: 400;">GPT-4Vは、テキストを理解し、生成するだけでなく、詩、コード、スクリプト、音楽作品、電子メール、手紙など、さまざまな創造的なコンテンツ形式を作成し、画像をシームレスに組み込むことができます。</span></p>
<p><b><br />
  <i>続きを読む </i><br />
</b><a href="https://meetcody.ai/blog/openais-dev-day-reveals-updates-128k-context-pricing-leaks/"><br />
  <b><br />
    <i>GPT-4 ターボ 128K コンテキスト：知っておくべきこと</i><br />
  </b><br />
</a></p>
<h2><b>GPT-4ビジョンにアクセスするには？</b></h2>
<p><span style="font-weight: 400;">GPT-4ビジョンへのアクセスは、主にOpenAIが提供するAPIを通じて行われる。 これらのAPIにより、開発者はモデルをアプリケーションに統合することができ、さまざまなタスクにその機能を活用することができる。 OpenAIは、GPT-4 Visionのさまざまな価格層と利用プランを提供し、多くのユーザーが利用できるようにしている。 GPT-4ビジョンはAPIを通じて利用できるため、多様なユースケースに対応できる。</span></p>
<h2><b>GPT-4ビジョンの価格は？</b></h2>
<p><span style="font-weight: 400;">GPT-4 Visionの価格は、使用量、ボリューム、選択した特定のAPIやサービスによって異なる場合があります。  </span><a href="https://meetcody.ai/blog/openai-devday-announcements-live-stream-conference/"><span style="font-weight: 400;">オープンAI</span></a><span style="font-weight: 400;"> 通常、公式ウェブサイトまたは開発者ポータルで詳細な価格情報を提供している。 ユーザーは、価格設定、使用量制限、サブスクリプションのオプションを検討し、最適なプランを決定することができます。</span></p>
<h2><b>GPT-3とGPT-4ビジョンの違いは？</b></h2>
<p><span style="font-weight: 400;">GPT-4ビジョンは、GPT-3よりも大きく進化しており、主にビジュアルコンテンツを理解し、生成する能力を備えている。 GPT-3がテキストベースの理解と生成に重点を置いていたのに対し、GPT-4ビジョンはテキストと画像をシームレスに統合している。 2つのモデルの主な違いは以下の通り：</span></p>
<h3><b>マルチモーダル能力</b></h3>
<p><span style="font-weight: 400;">GPT-4ビジョンは、テキストと画像を同時に処理し理解することができ、真のマルチモーダルAIとなっている。 これに対してGPT-3は、主にテキストに焦点を当てた。</span></p>
<h3><b>視覚的理解</b></h3>
<p><span style="font-weight: 400;">GPT-4ビジョンは画像を分析・解釈し、視覚的な内容に関する質問に詳細な説明と回答を提供することができます。 GPT-3は、主にテキストの領域で動作するため、この能力が欠けている。</span></p>
<h3><b>コンテンツ・ジェネレーション</b></h3>
<p><span style="font-weight: 400;">GPT-3がテキストベースのコンテンツ生成に長けているのに対し、GPT-4 Visionは、詩やコードからスクリプトや作曲に至るまで、創造的なコンテンツに画像を組み込むことで、コンテンツ生成を次のレベルに引き上げている。</span></p>
<h3><b>イメージベース翻訳</b></h3>
<p><span style="font-weight: 400;">GPT-4ビジョンは、画像内のテキストをある言語から別の言語に翻訳することができる。</span></p>
<h2><b>GPT-4ビジョンはどのような技術を採用していますか？</b></h2>
<p><span style="font-weight: 400;">GPT-4ビジョンの能力を十分に理解するには、その機能を支えるテクノロジーを理解することが重要だ。 GPT-4 Visionの中核は、ディープラーニング技術、特にニューラルネットワークに依存している。  </span></p>
<p><span style="font-weight: 400;">このモデルは、人間の脳の構造を模倣した、相互接続されたノードの多層構造で構成されており、膨大なデータセットを効率的に処理し、理解することを可能にしている。 GPT-4ビジョンの主な技術要素には以下のものがある：</span></p>
<h3><b>1.変圧器アーキテクチャ</b></h3>
<p><span style="font-weight: 400;">GPT-4 Visionは、前モデルと同様、シーケンシャルデータの処理に優れたトランスフォーマーアーキテクチャを採用している。 このアーキテクチャは、テキストとビジュアル情報の処理に理想的であり、モデルの能力の強固な基盤を提供する。</span></p>
<h3><b>2.マルチモーダル学習</b></h3>
<p><span style="font-weight: 400;">GPT-4ビジョンの特徴は、マルチモーダル学習ができることだ。 つまり、このモデルはテキストと画像を同時に処理することができ、画像のテキスト説明を生成したり、ビジュアルコンテンツに関する質問に答えたり、さらにはテキスト説明に基づいて画像を生成したりすることができる。 これらのモダリティを融合させることが、GPT-4ビジョンの多用途性の鍵である。</span></p>
<h3><b>3.事前トレーニングと微調整</b></h3>
<p><span style="font-weight: 400;">GPT-4ビジョンは2段階のトレーニングを受ける。 事前学習段階では、広範なデータセットを分析することで、テキストや画像を理解し、生成することを学習する。 その後、ファインチューニングと呼ばれるドメイン固有のトレーニングプロセスを経て、用途に応じた能力が磨かれる。</span></p>
<p><b><br />
  <i>LLaVAとの出会い： </i><br />
</b><a href="https://meetcody.ai/blog/meet-llava-the-new-competitor-to-gpt-4-vision/"><br />
  <b><br />
    <i>GPT-4ビジョンの新たな競争相手</i><br />
  </b><br />
</a></p>
<h2><b>結論</b></h2>
<p><span style="font-weight: 400;">GPT-4ビジョンは、さまざまな産業やアプリケーションに革命をもたらす可能性を秘めた強力な新ツールである。  </span></p>
<p><span style="font-weight: 400;">今後も発展が続けば、さらに強力で多機能なものになり、AI主導のアプリケーションに新たな地平が開けるだろう。 とはいえ、この強力なツールが社会に利益をもたらすためには、技術革新と倫理的配慮のバランスを取りながら、GPT-4ビジョンの責任ある開発と展開が最も重要である。</span></p>
<p><span style="font-weight: 400;">AIの時代に突入した今、人類の向上のためにGPT-4ビジョンの可能性を最大限に活用するために、実務と規制を適応させることが不可欠である。</span></p>
<p><b><br />
  <i>続きを読む </i><br />
</b><a href="https://meetcody.ai/blog/open-ai-chatgpt-enterprise-pricing-buy-benefits-compare/"><br />
  <b><br />
    <i>OpenAIのChatGPTエンタープライズ：コスト、メリット、セキュリティ</i><br />
  </b><br />
</a></p>
<h2><b>よくある質問 (FAQ)</b></h2>
<h3><b>1.GPTビジョンとは何ですか？</b></h3>
<p><span style="font-weight: 400;">GPTビジョンは、画像を自動的に分析して物体、テキスト、人物などを識別するAI技術だ。 ユーザーは画像をアップロードするだけで、GPT Visionは画像内容の説明を提供し、画像からテキストへの変換を可能にします。</span></p>
<h3><b>2.GPT VisionのOCR機能と、認識できるテキストの種類を教えてください。</b></h3>
<p><span style="font-weight: 400;">GPTビジョンは、手書き文字を含む画像内のテキストを正確に認識できる、業界をリードするOCR（光学式文字認識）技術を有しています。 印刷物や手書きのテキストを高精度で電子テキストに変換できるので、さまざまなシーンで活躍する。</span></p>
<p>&nbsp;</p>
<blockquote class="twitter-tweet">
<p dir="ltr" lang="en">GPT-4-Visionはテキストを読むのも得意だ！ 模範解答の余白にいくつか指示を書けば、それに従ってくれたよ🤯。 Javascriptを追加し、ホバー状態を赤にしました！<a href="https://t.co/PmcS0u4xOT">pic.twitter.com/PmcS0u4xOT</a></p>
<p>&#8211; ソーヤー・フッド (@sawyerhood)<a href="https://twitter.com/sawyerhood/status/1721924480304603320?ref_src=twsrc%5Etfw">2023年11月7日</a></p></blockquote>
<p><script async="" src="https://platform.twitter.com/widgets.js" charset="utf-8"></script></p>
<h3><b>3.GPT Visionは複雑なチャートやグラフを解析できますか？</b></h3>
<p><span style="font-weight: 400;">そう、GPT Visionは複雑なチャートやグラフを解析することができ、データビジュアライゼーションから情報を抽出するようなタスクに威力を発揮する。</span></p>
<h3><b>4.GPT-4Vは画像コンテンツのクロスランゲージ認識に対応していますか？</b></h3>
<p><span style="font-weight: 400;">はい、GPT-4Vは中国語、英語、日本語など、世界の主要言語を含む多言語認識に対応しています。 異なる言語の画像コンテンツを正確に認識し、対応するテキスト記述に変換することができます。</span></p>
<h3><b>5.GPT-4Vの画像認識機能はどのような場面で活用できますか？</b></h3>
<p><span style="font-weight: 400;">GPT-4Vの画像認識機能は、電子商取引、ドキュメントのデジタル化、アクセシビリティサービス、言語学習など、さまざまな用途に利用できる。 個人でも企業でも、画像を多用する作業を支援し、作業効率を向上させることができる。</span></p>
<h3><b>6.GPT-4Vはどのような画像を解析できますか？</b></h3>
<p><span style="font-weight: 400;">GPT-4Vは、解釈するのに十分な鮮明な画像であれば、写真、図面、図表など、さまざまな種類の画像を解析することができる。</span></p>
<h3><b>7.GPT-4Vは手書き文書の文字を認識できますか？</b></h3>
<p><span style="font-weight: 400;">そう、GPT-4Vは高度なOCR技術により、手書き文書のテキストを高い精度で認識できるのだ。</span></p>
<h3><b>8.GPT-4Vは多言語のテキスト認識に対応していますか？</b></h3>
<p><span style="font-weight: 400;">はい、GPT-4Vは多言語認識に対応しており、多言語のテキストを認識できます。</span></p>
<h3><b>9.GPT-4Vの画像認識精度は？</b></h3>
<p><span style="font-weight: 400;">GPT-4Vの画像認識精度は、画像の複雑さや質によって異なる。 製品やロゴのような単純な画像に対して高い精度を示す傾向があり、トレーニングを重ねることで継続的に向上する。</span></p>
<h3><b>10.GPT-4Vの使用制限はありますか？</b></h3>
<p><span style="font-weight: 400;">&#8211; GPT-4Vの利用制限は、契約プランによって異なります。 無料ユーザーの場合、1ヶ月あたりのプロンプト数が制限される場合がありますが、有料プランの場合、それ以上の制限があったり、制限がなかったりします。 さらに、有害な使用例を防ぐために、コンテンツフィルターが設置されている。</span></p>
<h2>トリビア（？）</h2>
<blockquote class="twitter-tweet">
<p dir="ltr" lang="en">GPT-4V + TTS = AIスポーツナレーター 🪄⚽️</p>
<p>gpt-4-vision-previewにサッカービデオの各フレームを渡し、簡単なプロンプトでナレーションを生成するよう依頼した。</p>
<p>編集は一切していません。モデルから出てきたそのままです（もっと良くなります）<a href="https://t.co/KfC2pGt02X">pic.twitter.com/KfC2pGt02X</a></p>
<p>&#8211; ゴンサロ・エスピノサ グラハム 🏴‍☠️ (@geepytee)<a href="https://twitter.com/geepytee/status/1721705524176257296?ref_src=twsrc%5Etfw">2023年11月7日</a></p></blockquote>
<p><script async="" src="https://platform.twitter.com/widgets.js" charset="utf-8"></script></p>
<p>&nbsp;</p>
<p>The post <a href="https://meetcody.ai/ja/blog/%e3%83%93%e3%82%b8%e3%83%a7%e3%83%b3%e4%bb%98%e3%81%8dgpt-4%ef%bc%9agpt-4%e3%81%af%e4%bd%95%e3%81%8c%e3%81%a7%e3%81%8d%e3%80%81%e3%81%aa%e3%81%9c%e9%87%8d%e8%a6%81%e3%81%aa%e3%81%ae%e3%81%8b%ef%bc%9f/">GPT-4ビジョン：GPT-4ビジョンは何を可能にし、なぜ重要なのか？</a> appeared first on <a href="https://meetcody.ai/ja/">Cody - The AI Trained on Your Business</a>.</p>
]]></content:encoded>
					
		
		
			</item>
	</channel>
</rss>
