Author: Om Kamath

Om Kamath

GPT-4o:OpenAIが最新言語モデルを公開、ユーザーは無料で利用可能

GPT-4o

ソーシャルメディアやその他のフォーラムで、OpenAIが私たちのために何を用意しているのかについて多くの憶測が飛び交っていたが、昨日、OpenAIはついに、これまでで最新かつ最も強力なLLMであるGPT-4o(’o’はomniの意)を公開した。 GPT-4oの発表イベントを見逃した方のために、GPT-4oの能力と提供する機能について説明しよう。

強化されたオーディオ、テキスト、視覚機能

GPT-4ターボは強力なモデルだが、1つ欠点がある。 GPT-3.5ターボと比較すると、GPT-4ターボはまだかなり遅い。 GPT-4oはこの欠点に対処し、GPT-4ターボより2倍速い。 これにより、音声、テキスト、視覚からのデータの統合を含む、より広範なユースケースが広がり、マルチモーダルからオムニモーダルへと一歩前進する。 マルチモーダルとオムニモーダルの主な違いは、オムニモーダルでは3つのソースをシームレスに並行運用できることだ。

また、これらの機能強化により、音声変調、皮肉を理解する能力、自然な会話能力を向上させた音声を生成できるようになった。

ChatGPTユーザーは、価格を下げて無料でご利用いただけます。

GPT-4oは従来のGPT-4ターボより効率的で高速であるが、GPT-4ターボの半分の価格(API)であるため、GPT-4oは5.00米ドル/1Mインプットトークン、15.00米ドル/1Mアウトプットトークンとなる。 より良い価格設定により、コンテキストのウィンドウは128kトークンとなり、知識のカットオフは2023年10月となった。

GPT-4oはすべてのChatGPTユーザーが無料で利用できます(ChatGPT PlusユーザーはGPT-4oの上限が5倍になります)。 これと並行して、オープンAIはChatGPTデスクトップアプリも発表した。このアプリでは、ユーザーはGPT-4oの視覚機能を利用して、スクリーンに表示されるコンテンツを読み解くことができる。 ユーザーはデスクトップアプリを使ってChatGPTと話すこともできる。

GPT-4oデモ

 

OpenAIによると、GPT-4oへのアクセスは今後数週間かけて段階的に展開され、ChatGPT Plusのユーザーは優先的かつ早期にアクセスできるようになるという。 このモデルの真の可能性を理解するのは、今後数週間のうちにアクセスできるようになってからだ。 エキサイティングな時間が待っている!

グロックとラマ3:ゲームを変えるデュオ

数カ月前、「Groq」という名の新会社が突如として現れ、AI業界で画期的な進歩を遂げた。 LPUは、LLM、特にLlama、Mixtral、GemmaのようなオープンソースのLLMの推論エンジンとして、開発者がLPUにアクセスするためのプラットフォームを提供しました。 このブログでは、Groqの特徴を探り、LPUの背後にある驚異を掘り下げてみよう。

Groqとは?

“GroqはGenAIの推論速度の標準を設定する使命を担っており、リアルタイムのAIアプリケーションの実現を今日から支援しています。”- Groqウェブサイト

GroqはGPTやGeminiのようにLLMを開発する会社ではない。 その代わりにGroqは、これらの大規模な言語モデルの基盤、つまりそれらが動作するハードウェアを強化することに重点を置いている。 推論エンジン」の役割を果たす。 現在、市場にあるほとんどのLLMは、プライベートサーバーやクラウド上に配置された従来のGPUを利用している。 これらのGPUは、Nvidiaのような会社から供給される高価で強力なものですが、依然として伝統的なGPUアーキテクチャに依存しており、LLM推論には最適ではないかもしれません(しかし、強力であることに変わりはなく、モデルのトレーニングには適しています)。

Groqが提供する推論エンジンは、LPU(言語処理ユニット)上で動作する。

LPUとは何ですか?

言語処理ユニットはLLMのために特別に設計されたチップで、CPUとGPUを組み合わせた独自のアーキテクチャで構築されており、LLM向けのAIソリューションのペース、予測可能性、パフォーマンス、精度を一変させる。

LPU Groqの言語処理ユニット

LPUシステムの主な特徴。 クレジットGroq

LPUシステムは、グラフィックプロセッサ(GPU)と同等かそれ以上の計算能力を持ち、1単語あたりの計算時間を短縮することで、より高速なテキストシーケンスの生成を可能にします。

Groqのウェブサイトに掲載されているLPU推論エンジンの特徴:

  • 卓越したシーケンシャル性能
  • シングル・コア・アーキテクチャ
  • 大規模展開でも維持される同期ネットワーキング
  • >50B LLMの自動コンパイル機能
  • インスタント・メモリー・アクセス
  • 低い精度レベルでも維持される高い精度

Groqが提供するサービス

  1. GroqCloudクラウド上のLPU
  2. GroqRack:最大64個のチップを相互接続できる42Uラック
  3. GroqNode:8台のGroqCard™アクセラレータを相互接続した4Uラック対応スケーラブル・コンピューティング・システム
  4. GroqCard:標準PCIe Gen 4×16フォームファクタのシングルチップで、手間のかからないサーバー統合を実現

「AIとは全く異なる種類のタスクを行うために設計されたCPUや、偶然AIのようなことを行うためにCPUをベースに設計されたGPUや、AIに適したものにするためにGPUを改良したTPUとは異なり、Groqは一から、第一原理から、AIのためのコンピューターシステムなのです」ダニエル・ウォーフィールド(データサイエンスに向けて

LPUがGPU、TPU、CPUとどのように異なるかについては、ダニエル・ウォーフィールド(Daniel Warfield)氏がTowards Data Scienceに寄稿した包括的な記事を読むことをお勧めします。

Groqは何のためにあるのか?

LLMは非常に強力で、非構造化データの解析から猫のかわいさに関する質問への回答まで、幅広いタスクをこなすことができる。 しかし、現在のところ、その主な欠点は応答時間にある。 応答時間の遅さは、バックエンドプロセスでLLMを使用する際に大きなレイテンシーにつながる。 例えば、データベースからデータをフェッチし、JSONフォーマットで表示するのは、データを変換するためにLLMを通すよりも、従来のロジックを使った方がはるかに速い。 しかし、LLMの利点は、データの例外を理解し処理する能力にある。

Groqが提供する驚異的な推論速度により、LLMのこの欠点は大幅に軽減される。 LPUを使えば、オープンソースのモデルをより安価に導入でき、レスポンスも速くなる。

Groqのラマ3

数週間前、メタ社は、すでにパワフルで非常に高性能なオープンソースのLLM-Llama 3の最新版を発表した。 スピード、データ理解力、トークン生成における典型的な強化に加えて、2つの重要な改善が目立つ:

  1. Llama 2の7倍のデータセットと4倍のコードで学習。
  2. コンテキストの長さを2倍の8,000トークンに。

Llama 2はすでに手ごわいオープンソースLLMだったが、これら2つのアップデートにより、Llama 3の性能は大幅に上昇すると予想される。

ラマ3ベンチマーク

ラマ3ベンチマーク

ラマ3をテストするには、Meta AIまたはGroqプレイグラウンドを利用するオプションがある。 Llama3でテストすることで、Groqのパフォーマンスを紹介しよう。

グロック・プレイグラウンド

現在、Groqプレーグラウンドでは、Gemma 7B、Llama 3 70Bと8B、Mixtral 8x7Bを無料で利用できる。 プレイグラウンドでは、温度、最大トークン、ストリーミング・トグルなどのパラメーターを調整できる。 さらに、JSON出力のみを生成する専用のJSONモードも備えている。

901トークン/秒の推論でわずか402ミリ秒

901トークン/秒の推論でわずか402ミリ秒

901トークン/秒の推論でわずか402ミリ秒

私が考える最もインパクトのある領域/アプリケーションは、データの抽出と変換である:

モデルに有用な情報の抽出を依頼し、JSONモードを使ってJSONを提供する。

モデルに有用な情報の抽出を依頼し、JSONモードを使ってJSONを提供する。

抽出とJSONフォーマットへの変換は、0.5秒もかからずに完了した。

抽出とJSONフォーマットへの変換は、0.5秒もかからずに完了した。

結論

実証されたように、Groqは革新的なLPU推論エンジンによって、LLMの状況を一変させる存在となった。 ここで示された急速な変革は、AIの応用を加速させる計り知れない可能性を示唆している。 今後、Groqがどのようなイノベーションを起こすかは、想像するしかない。 おそらく、画像処理ユニットが画像生成モデルに革命をもたらし、AI映像生成の進歩に貢献する可能性がある。 確かに、期待に胸を膨らませる未来だ。

今後、LLMトレーニングの効率化が進めば、自分のローカル・デバイスで、自分のデータをもとに微調整されたパーソナライズされたChatGPTを利用できる可能性が出てくる。 そのような機能を提供するプラットフォームのひとつが、ビジネスをさまざまな側面からサポートするために調整されたインテリジェントなAIアシスタント、Codyである。 ChatGPTのように、Codyはあなたのビジネスデータ、チーム、プロセス、顧客について、独自のナレッジベースを使ってトレーニングすることができます。

Codyを利用することで、企業はAIの力を活用し、ニーズに特化したパーソナライズされたインテリジェントなアシスタントを作成することができる。

2024年の無料オープンソースLLMトップ5

LLMは今やどこにでもあり、紹介するまでもない。 技術職であろうとなかろうと、日常的に何らかの形でLLMに遭遇しているか、現在利用している可能性はある。 現在最も著名なLLMには、OpenAIのGPT、AnthropicのClaude、GoogleのGeminiなどがある。

しかし、これらの一般的なLLMは、抽象的あるいはブラックボックス的なシステムとして運用されることが多く、データのプライバシーや透明性に関する懸念が生じる。 このような問題に対処するため、オープンソースのLLMがいくつか提供されており、ユーザーは安心してプライベートマシンやサーバーにLLMを導入することができる。

オープンソースとは、ソースコードを自由に閲覧、変更、配布できる状態で配布されているソフトウェアや製品のことを指す。 このアクセシビリティによって、ユーザーはソフトウェアを理解し、向上させ、開発に貢献することができる。

現在利用可能なオープンソースのLLMの中で最も優れたものをいくつか紹介しよう:

ラマ2

LLaMA 2:メタのオープンソースAIモデル

Llama 2は、Meta社によって開発されたオープンソースのLLMで、商用および研究用に無料で提供されている。 ラマ2のモデルは2兆個のトークンで学習され、ラマ1の2倍のコンテキストの長さを誇る。

モデルのパラメータは、テキストを理解する能力に直接影響し、より大きなモデルは、サイズとリソース要件の増加の代償として、より良いパフォーマンスを提供する。

バリエーションあり:7B、13B、70Bパラメータ

コンテキストウィンドウ4096トークン

対応言語英語に最適

ミクストラル 8x7B

ミストラルAIがオープンソースLLM「Mixtral 8x7B」を発表、GPT 3.5と同等と主張

Mistral AIが開発したMixtral 8x7Bは、総パラメータ46.7Bを含むLLMである。 その大きさにもかかわらず、3分の1の大きさのモデルと同程度の推論スピードとコストを維持している。 このデコーダのみのTransformer Mixture of Experts(MoE)モデルは、特定のベンチマークにおいてLLama 2とGPT-3.5を大幅に上回る。

利用可能なバリエーション:小型、小型、中型、大型(コストパフォーマンスの高いものから高性能なものまでランク付けされている)

コンテクスト・ウィンドウ32000トークン(Mistral Largeの場合)

対応言語英語, フランス語, スペイン語, ドイツ語, イタリア語 (Mistral Largeの場合)

ファルコン

アラブ首長国連邦の技術革新研究所、研究・商業利用のためのオープンソース大型言語モデル「ファルコン40B」を発表|Technology Innovation Institute

アブダビのテクノロジー・イノベーション・インスティテュート(TII)が開発したファルコンも、オープンソースの代表的なLLMである。 ファルコン40Bは、発売後2ヶ月間、Hugging Faceのオープンソース大規模言語モデル(LLM)のリーダーボードで1位を維持しました。 180B型では、TIIはモデルの知識とデータ理解能力をさらに強化した。 ファルコン180Bは、3.5兆個のトークンで訓練された超強力な言語モデルです。

利用可能なバリエーション:ファルコン40Bおよびファルコン180B

コンテキストウィンドウ4096トークン

対応言語英語、ドイツ語、スペイン語、フランス語、イタリア語、ポルトガル語、ポーランド語、オランダ語、ルーマニア語、チェコ語、スウェーデン語に限定対応。

ブルーム

ブルーム

BLOOMはビッグサイエンス社が開発した自己回帰型大規模言語モデル(LLM)である。 176Bのパラメータで訓練されたBLOOMは、膨大なテキストデータと産業規模の計算リソースを用いて、プロンプトからテキストの続きを生成することに優れている。

利用可能なバリエーション:ブルーム-560M、ブルーム-1B1、ブルーム-1B7、ブルーム-3B、ブルーム-7B1、ブルーム176B

コンテキストウィンドウ2048トークン

対応言語46の自然言語(データ量はさまざま、英語の30%からChi Tumbukaの0.00002%まで)

ジェマ

Gemma】(ジェンマ]データサイエンスのためのAIアシスタントを構築する🤖」。

Gemmaは、Geminiの成功に続く、グーグルの最新鋭のオープンLLMである。 Gemmaは、Google DeepMindによるオープンウェイトの大規模言語モデル(LLM)ファミリーであり、Geminiの研究と技術に基づいて構築されている。 モデルの重みは自由にアクセスできるが、使用、再配布、変種の所有に関する特定の条件は異なる場合があり、オープンソースライセンスに基づいていない場合がある。

バリエーションあり:ジェンマ2B、ジェンマ7B

コンテキストウィンドウ8192トークン

対応言語英語

結論

私たちCodyは、LLMに関してモデルにとらわれないアプローチを優先し、独自のユースケースに合わせてパーソナライズされたボットを構築できるプラットフォームを提供しています。 多様なLLMオプションが用意されているため、単一のプロバイダーに制限されることなく、あなたの要件に最適なものを自由に選択することができます。

Codyを通じて、企業はAIを活用し、ニーズに合わせてカスタマイズされたインテリジェント・アシスタントを開発することができる。 この柔軟性により、CodyはAIを活用したビジネス・ソリューションの領域で有望な存在となっている。

ChatGPTキラー? ジェミニ1.5がグーグルのAIの未来に意味するもの

グーグル対オープンAI:グーグルの勝利か?

AIハイプ・トレインのバルドで的外れな成功を収めたグーグルは、最近、最新のAI製品ジェミニを発表した。 この立ち上げの一環として、バードはジェミニに改名し、新たにジェミニ・プロLLMを組み込んだ。 この変化の程度を把握するために、さらに掘り下げてみよう。

ジェミニAIとは?

Geminiは、LaMDAとPaLMに続くGoogleの最新の大規模言語モデル(LLM)である。 ジェミニは前モデルとは異なり、テキスト、画像、音声、コードを理解できるマルチモーダル対応で、理解力と推論能力が強化されている。

ジェミニAIのバリエーション

ジェミニAIは、3つのラージ言語モデルで構成されている:

  1. Gemini Nano:オンデバイスの効率性を高めるために最適化され、個人のデバイスに直接、迅速なAIソリューションを提供します。
  2. ジェミニ・プロ多用途でスケーラブルなモデルで、堅牢なパフォーマンスで多様なタスクに取り組むことができる。 Geminiチャットインターフェイスの無料版でご利用いただけます。
  3. ジェミニ・ウルトラ:ジェミニ・シリーズの最高峰で、複雑な問題解決を支援し、AI能力の最前線を進化させる。 Google One AI プレミアムプラン加入者限定。

Geminiモデルは、そのサイズと構成に応じて、TPUv5eとTPUv4を使ってトレーニングされた。 トレーニング・ジェミニ・ウルトラは、グーグルが複数のデータセンターに所有する大規模なTPUv4アクセラレータ群を使用した。 これは、インフラストラクチャーに新たな課題を突きつけていた以前のフラッグシップモデルPaLM-2よりも規模が大幅に拡大したことを意味する。

ジェミニと他のLLMとの比較

テキストの理解

ジェミニと他のLLMとの比較

ソースグーグル・ディープマインド

イメージ理解

ジェミニと他のLLMとの比較

ソースグーグル・ディープマインド

詳しくはこちら

双子座のメリット

1.すべてのGoogle Appsとのシームレスな統合

Geminiは現在、マップ、YouTube、Gmailなどを含むすべてのGoogle Appsとシームレスに統合されています。 特定のアプリに問い合わせるには、アプリ名の前に’@’を付け、その後に問い合わせを続けるだけです。 ChatGPTでもGPTやプラグインを使って同様の統合が可能ですが、Geminiのネイティブ統合と同じレベルのシームレスさは提供できないかもしれません。

ジェミニ・インテグレーション

検索エンジン技術におけるグーグルの有名な専門知識は、間違いなくジェミニのウェブブラウジング能力を向上させる。 検索アルゴリズムとインデックス作成における基礎的な強みを活用し、Geminiはユーザーにシームレスで効率的なブラウジング体験を提供する。

2.マルチモーダル機能

Geminiは現在、画像理解を含むマルチモーダル機能をGeminiチャットインターフェースに追加料金なしで提供しています。 テスト時の性能はまずまずだったが、GPT-4Vの精度には及ばないかもしれない。 とはいえ、無料なのだから文句は言えないだろう。 ;)ジェミニ・ウルトラがGPT-4Vを上回る可能性がある。

ジェミニ・マルチモーダル

3.趣味と学生への無料アクセス

この分野に飛び込もうとしているが、コスト面でGPT APIへのアクセスに制約があるLLM開発者のために、GoogleはGemini Pro 1.0 APIへの無料アクセスを提供している。 これを使えば、無料のウェブベースの開発者ツールであるGoogle AI Studioで、1分間に最大60回のクエリーを行うことができる。 Google AI Studioでは、プロンプトを素早く開発し、アプリ開発のためのAPIキーを取得することができる。 GoogleアカウントでGoogle AI Studioにサインインすることで、この無料枠を利用することができます。 LLMの旅をスタートさせ、エンベッディング、ベクターデータベース、セマンティック検索などを探求する絶好の機会だ。

グーグルAIスタジオ

4.バリュー・フォー・マネー

月額20ドルで、ChatGPT Plus経由でGPT-4にアクセスできます。 また、同じ料金で、2TBのクラウドストレージやGmailやDocsなどのGoogle Appsとの統合などの追加特典が含まれるGemini Ultra 1.0を使ってGemini Advancedにアクセスすることもできる。 ただし、Gemini Advancedにアクセスするには、Google One AIプレミアムプランに加入する必要がある。 この条件にもかかわらず、より大きな価値を提供する。

グーグル・ワン・プラン

スタンダードプランとプレミアムプランの間に、500GBのストレージとGemini Advancedへのアクセスを持つミッドティアプランを導入することで、特に学生や中程度のストレージを必要とするユーザーにとって、Geminiのアクセシビリティが大幅に向上するでしょう。 グーグル、もし聞いているなら、この提案を検討してほしい。

双子座の次なる目標は?

グーグルのディープマインドはジェミニ・モデルを継続的に進化させており、つい1週間前にはジェミニ・プロ1.5を発表したばかりだ。 この改訂版では、コンテキスト・ウィンドウが128,000トークンに拡張された。 さらに、一部の開発者と企業顧客は、AI StudioとVertex AIのプライベート・プレビューを通じて、最大100万トークンというさらに大きなコンテキスト・ウィンドウで実験できるようになった。 これを踏まえて考えると、一般的なノンフィクション本には約30万トークンが含まれている。 Gemini Pro 1.5の100万トークンコンテキストウィンドウにより、ユーザーはクエリーリクエストでブック全体をアップロードできるようになりました。

AI業界においてLLMが飽和状態にあるなか、グーグルは今回、その強化されたアーキテクチャ、迅速な対応、そしてグーグルのエコシステム内でのシームレスな統合によって、金字塔を打ち立てたようだ。 OpenAIや他の競合他社を油断させない、正しい方向への一歩となるかもしれない。

このAI時代において、企業にとって十分な訓練を受けた従業員を確保することは極めて重要であり、従業員教育のためにAIを取り入れることは大きな投資となり得る。 従業員を訓練するためのAIソリューションをお探しなら、Codyは最適なツールです。 ChatGPTやGeminiと同様に、Codyはあなたのビジネスデータ、チーム、プロセス、顧客について、あなた独自のナレッジベースを使ってトレーニングすることができます。 Codyは機種を問わないので、要求に応じて簡単に機種を変更することができる。

Codyを利用することで、企業はAIの力を活用し、ニーズに特化したパーソナライズされたインテリジェントなアシスタントを作成することができる。

あなたのビジネスにAI従業員を雇う3つの説得力のある理由

Revolutionize your workplace with AI

あなたのビジネスに今、AI社員が必要な理由

現代の職場において、ChatGPTのようなAIソリューションの変革力を否定することはできない。 ChatGPTは、電子メールの下書きの効率化からメンタルヘルスのサポートまで、私たちの日常業務への取り組み方に革命を起こしています。 しかし、特定のビジネス知識ベースへのカスタマイズができないなど、限界がないわけではない。 Codyは、あなたの組織にAIのベストをもたらす、コード不要で手間のかからないソリューションです。

AIが組織にもたらす3つのメリットを探ってみよう:

トレーニング静的トレーニングから動的トレーニングへ

従来のトレーニング方法では、静的であらかじめ定義されたフローを使用することが多く、魅力に欠けるだけでなく、必ずしもビジネスニーズに合わせて作られているとは限りません。 AIを活用することで、社員研修プログラムにダイナミズムとインタラクティブ性をもたらすことができます。

Codyでは、PDFでもWord文書でも、既存のトレーニング文書をアップロードするだけで簡単に利用できます。 あらかじめ用意されたボットテンプレートから選ぶか、高度なボットビルダーを使ってコーディーの個性を自分好みにカスタマイズしましょう。 わずか数ステップで、各従業員のニーズに対応したパーソナライズされたオンボーディング・コーチができ、トレーニング・プログラムの効果と直感性を高めることができます。

検索:知識を利用しやすくする

従業員がデータの選別に何時間も費やすようでは、十分に文書化されたビジネス知識ベースを持つ意味がない。 CodyのようなAIを搭載したソリューションは、社内検索エンジンのように機能し、組織内での情報アクセス方法を変革する。

一旦あなたのビジネス知識がCodyにアップロードされれば、自然言語で行われるどのようなクエリも、あなたの特定のデータから生成された正確で首尾一貫した応答で満たされます。 24時間365日、人間の専門家があらゆる問い合わせに対応しているようなものだ。 無限のデータの中から目的のない検索をする時代は終わった。

自動化:ワークフローの簡素化

最新のアップデートにより、自動化を次のレベルに引き上げることができます。 CodyはZapierとシームレスに統合できるようになり、効率的なだけでなくユーザーフレンドリーなAI搭載の自動ワークフローを構築できるようになった。 ルーチンワークを自動化することで、従業員はより有意義な仕事に集中することができる。 また、コーディのAI機能によって、生成されるコンテンツは人間が作成できるものと同等である。

Zapierは、Codyと5,000以上のアプリを接続できるツールで、無限の可能性が広がる。

未来は今、そしてそれはコーディだ

私たちは、トレーニング、検索、ワークフローの自動化におけるAIの影響に焦点を当て、職場におけるAIの変革力について掘り下げてきました。 コーディのようなプラットフォームがあれば、未来は遠い現実ではなく、今ここで起こっているのだ。 AIの統合は、業務効率の合理化だけでなく、コスト削減や従業員満足度の向上にもつながる。

では、なぜ待つのか? 規模拡大を目指す新興企業であれ、近代化を目指す既存企業であれ、今こそAIソリューションを取り入れる絶好の機会だ。 魅力的な特典と実績のあるCodyは、未来の仕事への飛躍を目指す人々に、手間のかからない、コード不要の選択肢を提供する。

職場のダイナミクスに革命を起こすチャンスをお見逃しなく。 ここをクリックして、コーディとの旅をスタートさせ、思いもよらない効率性と革新性の世界を発見してください。

AIでLinkedInのプレゼンスを高める:ZapierとGPTの活用

Codyを使えば、数クリックで企業データを魅力的な物語に変えることができます。

より多くのプラットフォームとの互換性を求める複数のリクエストを受けて、私たちはCodyのZapier統合という最新のアップデートを発表できることを嬉しく思います。 これによって可能性が広がり、5,000を超えるアプリの膨大なエコシステムとコーディを、わずか数クリックで簡単につなげることができる。 Codyの機能を、Discordや Slackとの統合をはるかに超えて拡張し、多数のプラットフォームで自動化の力を活用しましょう。 この記事は、CodyとZapierを使ってAIでLinkedInの投稿をブーストするのに役立つ。

目次

  1. Zapierとは?
  2. なぜOpenAI APIではなくCodyを選ぶのか?
  3. Zapierを使ってCodyのワークフローを自動化するには?
    1. ステップ1:ボットを作成する
    2. ステップ 2: Zapier統合を有効にする
    3. ステップ3:Zapierの設定
    4. ステップ4:ザップの構築
  4. 最終結果
  5. 次のステップは?

Zapierとは?

Zapierは、自動化の世界に初めて足を踏み入れる人にとって、無数のアプリ間のコード不要の橋渡し役となり、複雑な技術的ノウハウや複数のAPIキーとの格闘を不要にする。 基本的には、さまざまなプラットフォーム間の機能を統合し、自動化するユーザーフレンドリーな方法であり、Codyの機能をこれまで以上に簡単に拡張できる。

Zapierエコシステムで利用可能な人気アプリの一部:

  • グーグル シート
  • グーグルドキュメント
  • スラック
  • テレグラム
  • インスタグラム
  • フェイスブックメッセンジャー

なぜOpenAI APIではなくCodyを選ぶのか?

Cody AIは、ビジネスの自動化と支援に合わせたアプローチを提供し、汎用的なGPT APIとは一線を画している。 GPT APIとは異なり、Codyでは、独自のナレッジベースを使用して、あなたのビジネス、チーム、プロセス、さらには顧客データについて、アシスタントを特別にトレーニングすることができます。 これにより、ナレッジベースを別に管理したり、セマンティック検索エンジンを実装したりといった技術的に複雑な作業を省くことができます。

さらに、Codyはより包括的なソリューションを提供し、サブスクリプションプランに基づいたさまざまなGPTモデルへのアクセスを提供します。 また、Word / PDFドキュメント、クロールウェブページなどの幅広いドキュメントタイプをサポートし、カスタマイズ可能で埋め込み可能なウィジェットを提供し、既存のビジネスオペレーションにシームレスに統合できるように設計されています。 Codyでは、お客様のニーズに合わせた多機能で包括的なプラットフォームをご利用いただけます。

Zapierを使ってCodyのワークフローを自動化するには?

CodyとZapierの相性の良さを示すために、簡単な自動化を紹介しよう。 この記事では、CodyとZapierを使ってAIでLinkedInの投稿をブーストする方法を理解する。 この設定により、LinkedInに投稿したい内容をSlackに入力することができる。 ほんの数秒で、そのメッセージは自動的に本物のLinkedIn投稿に変わる。 CodyとZapierのおかげで、素早く簡単にソーシャルメディアのプレゼンスを拡大することができる。

ステップ1:ボットを作成する

私たちのウェブサイトには、ボット作成に関する様々なブログがあります。 しかし、簡単に概要を説明すると、ボットは基本的に2つの主要コンポーネントで構成されている:

  1. ボットのパーソナリティ:これは、あなたのボットがどのように対話するかのトーン、ムード、スタイルを設定します。 感情的な背景から返答の長さや関連性まで、すべてを網羅する。
  2. ナレッジ・ベースここにはあなたの重要な文書がすべて保管されています。 ボットが正確で有用な応答を生成するのに役立つコンテキストを提供する。

この2つの要素を組み合わせることで、ボットの効果と使いやすさが決まります。 この具体的なデモでは、不動産サイトのクロールデータからコンパイルされた知識ベースを使用する。 同じようなオートメーションを作成したい場合は、自分のビジネスウェブサイトをクロールして、ボットのナレッジベースに入力することができます。

プロンプト
LinkedInCodyは、あなたの会社のデータをLinkedInのバイラルストーリーに変えることを専門としています。 分析的な洞察とクリエイティブなストーリーテリングを融合させ、データに基づいた簡潔な投稿を作成することで、人々の関心を引き、印象づけることができる。 業績指標からチームのマイルストーンまで、LinkedInCodyは社内データを魅力的なLinkedInコンテンツに変え、戦略的な行動喚起を行います。 回答には、実行すべき指示を記載しないこと。
Copy To Clipboard

 

システムプロンプト:
トーンは明るく、プロフェッショナルで、親しみやすさとエンゲージメントを育むために少しカジュアルであるべきだ。
Copy To Clipboard

 

ステップ 2: Zapier統合を有効にする

Zapier Integrationを有効にするには、Account > Integrationsに行き、Zapierをインストールします。

CodyとZapierを使ってLinkedInの投稿をAIでブーストする - Integrations

インストールをクリックすると、Zapierにリダイレクトされ、そこで招待を受け入れる必要がある。

CodyとZapierを使ってLinkedInの投稿をAIでブーストする - 招待状

これで、ZapierアカウントでCodyの統合が有効になりました。

ステップ3:Zapierの設定

統合を有効にしたら、アクセストークンを使ってZapierがCodyアカウントにアクセスできるようにする必要があります。 アクセストークンを作成するには、Account> API Keys> Create API Keyにアクセスする必要があります。 APIキーをコピーし、Zapierアカウントに貼り付ける。

CodyとZapierを使ってAIでLinkedInの投稿をブーストする - APIキーを追加する

これでカスタムZapを作成する準備が整いました。

ステップ4:ザップの構築

新しいZapを作成するには、+ Create> New Zapをクリックします。

CodyとZapierを使ってAIでLinkedInの投稿をブーストする - Zapを作成する

セットアップでは2つの重要なイベントがある:

  1. トリガー:自動化を開始する最初のイベント、または “Zap “である。 それは、新しいメッセージの受信から、予定された時間まで何でもあり得る。
  2. アクション:トリガーに従って、メッセージの送信やテーブルへのデータ追加など、特定のタスクを実行する。

CodyとZapierを使ってAIでLinkedInの投稿をブーストする - トリガーとアクションの違い

ザップ作りに入る前に、ワークフローを明確に把握しておこう。 下図に示すように、Slackの公開チャンネルでユーザーが投稿の説明とともにボットの名前を言及すると、プロセスが開始される。 例えば、”@Zapier Villa Homesが他より優れている理由を強調する投稿を作成する”。

この初期メッセージは、ボット名を削除し、核となるコンテンツだけを残すようにフォーマットされる。 このフォーマットされたテキストはCodyに送られ、CodyがLinkedInのキャプションや投稿を生成する。 最後に、この生成されたコンテンツは自動的にLinkedInに投稿される。

要するに、CodyとZapierの助けを借りて、SlackのメッセージをLinkedInの投稿に変換する合理的なプロセスを設定するのだ。

Slackワークスペースからメッセージを引き出すには、まずSlackアカウントをZapierに接続する必要がある。 Trigger “イベントでは、’New Mention’を選択する。 指定したボットが公開Slackチャンネルで言及されるたびに、Zapが作動します。 この場合、Zapierボットが「Post」という単語を含むメッセージで言及されると、Zapが起動する。 これによって、オートメーションがあなたの意図したLinkedInの投稿を特別にターゲットにするようになる。

トリガーのテストが成功したら、次はSlackメッセージのフォーマットです。 ボット名を削除し、メッセージの核となるコンテンツを分離するために、Zapierのフォーマッターツールにある「Replace」関数を使用する。 これにより、LinkedInの投稿を生成するために必要なテキストだけがCodyに渡される。

さて、次はLinkedInの投稿を生成するCodyアクションを設定する番だ。 先ほど作成したボットを選択し、Slackからフォーマットされたテキストをクエリーとして使用します。 これでCodyは、クリーンアップされたメッセージをLinkedIn用に調整した投稿にするよう指示する。

最後のステップは、実際にLinkedInに更新を投稿することだ。 Codyによって生成されたレスポンスを使用し、LinkedInアクションのコメントとして入力する。 こうすることで、コーディからのメッセージがあなたのLinkedInアカウントに直接投稿され、自動化プロセスが完了する。

最終結果

スラックでの会話

リンクトイン投稿

次のステップは?

この記事では、CodyがZapierを介してAIを自動化ワークフローにシームレスに統合する方法を示す、シンプルかつ強力な例を概説した。 Zapierの人気アプリの豊富なライブラリを使えば、クリエイティブな自動化の可能性は無限大だ。 また、近日中にZapierに’Document Upload’アクションを追加し、ナレッジベースで使用できるドキュメントの幅を広げる予定です。

Zapのセットアップに成功し、その経験を共有したい場合は、私たちのDiscordサーバーに参加して他の人たちを刺激してください。 トラブルシューティングについては、「ヘルプを見る」機能からお問い合わせください。

Codyをビジネス・オートメーションのニーズに最大限に活用できるよう、今後も記事を展開していきます。 だから期待していてほしい!