<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>Cody &#8211; The AI Trained on Your Business</title>
	<atom:link href="https://meetcody.ai/ar/feed/" rel="self" type="application/rss+xml" />
	<link>https://meetcody.ai/ar/الصفحة-الرئيسية-v2/</link>
	<description>AI Powered Knowledge Base for Employees</description>
	<lastBuildDate>Thu, 26 Mar 2026 18:07:31 +0000</lastBuildDate>
	<language>ar</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.8.1</generator>

<image>
	<url>https://meetcody.ai/wp-content/uploads/2025/08/cropped-Cody-Emoji-071-32x32.png</url>
	<title>Cody &#8211; The AI Trained on Your Business</title>
	<link>https://meetcody.ai/ar/الصفحة-الرئيسية-v2/</link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>تضمين الجوزاء 2: أول نموذج تضمين متعدد الوسائط من Google</title>
		<link>https://meetcody.ai/ar/blog/%d8%aa%d8%b6%d9%85%d9%8a%d9%86-%d8%a7%d9%84%d8%ac%d9%88%d8%b2%d8%a7%d8%a1-2-%d8%a3%d9%88%d9%84-%d9%86%d9%85%d9%88%d8%b0%d8%ac-%d8%aa%d8%b6%d9%85%d9%8a%d9%86-%d9%85%d8%aa%d8%b9%d8%af%d8%af-%d8%a7/</link>
		
		<dc:creator><![CDATA[Om Kamath]]></dc:creator>
		<pubDate>Tue, 24 Mar 2026 03:02:17 +0000</pubDate>
				<category><![CDATA[غير مصنف]]></category>
		<guid isPermaLink="false">https://meetcody.ai/blog/%d8%aa%d8%b6%d9%85%d9%8a%d9%86-%d8%a7%d9%84%d8%ac%d9%88%d8%b2%d8%a7%d8%a1-2-%d8%a3%d9%88%d9%84-%d9%86%d9%85%d9%88%d8%b0%d8%ac-%d8%aa%d8%b6%d9%85%d9%8a%d9%86-%d9%85%d8%aa%d8%b9%d8%af%d8%af-%d8%a7/</guid>

					<description><![CDATA[<p>تضمين الجوزاء 2: الميزات والمعايير والتسعير وكيفية البدء في الأسبوع الماضي، أصدرت جوجل الجوزاء التضمين 2، أول نموذج تضمين متعدد الوسائط أصلاً مبني على بنية Gemini. إذا كنت تعمل مع التضمينات بأي صفة، فهذا يستحق اهتمامك. لديه القدرة على تعطيل خطوط أنابيب التضمين متعدد النماذج التي تعتمد عليها معظم الفرق اليوم بشكل كبير. حتى الآن،<a class="excerpt-read-more" href="https://meetcody.ai/ar/blog/%d8%aa%d8%b6%d9%85%d9%8a%d9%86-%d8%a7%d9%84%d8%ac%d9%88%d8%b2%d8%a7%d8%a1-2-%d8%a3%d9%88%d9%84-%d9%86%d9%85%d9%88%d8%b0%d8%ac-%d8%aa%d8%b6%d9%85%d9%8a%d9%86-%d9%85%d8%aa%d8%b9%d8%af%d8%af-%d8%a7/" title="Readتضمين الجوزاء 2: أول نموذج تضمين متعدد الوسائط من Google">... Read more &#187;</a></p>
<p>The post <a href="https://meetcody.ai/ar/blog/%d8%aa%d8%b6%d9%85%d9%8a%d9%86-%d8%a7%d9%84%d8%ac%d9%88%d8%b2%d8%a7%d8%a1-2-%d8%a3%d9%88%d9%84-%d9%86%d9%85%d9%88%d8%b0%d8%ac-%d8%aa%d8%b6%d9%85%d9%8a%d9%86-%d9%85%d8%aa%d8%b9%d8%af%d8%af-%d8%a7/">تضمين الجوزاء 2: أول نموذج تضمين متعدد الوسائط من Google</a> appeared first on <a href="https://meetcody.ai/ar/">Cody - The AI Trained on Your Business</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p style="text-align: center;"><em>تضمين الجوزاء 2: الميزات والمعايير والتسعير وكيفية البدء</em><!-- notionvc: c383b1b6-2ff8-40bd-8227-0a70d481c796 --></p>
<p>في الأسبوع الماضي، أصدرت جوجل  <a href="https://meetcody.ai/blog/google-introduces-the-multimodal-gemini-ultra-pro-nano-models/">الجوزاء</a>  التضمين 2، أول نموذج تضمين متعدد الوسائط أصلاً مبني على بنية Gemini. إذا كنت تعمل مع التضمينات بأي صفة، فهذا يستحق اهتمامك. لديه القدرة على تعطيل خطوط أنابيب التضمين متعدد النماذج التي تعتمد عليها معظم الفرق اليوم بشكل كبير.  </p>
<p>حتى الآن، كانت نماذج التضمين الرئيسية من OpenAI و Cohere و Voyage تعتمد بشكل أساسي على النصوص. كان هناك عدد قليل من الخيارات متعددة الوسائط &#8211; <a href="https://openai.com/index/clip/">CLIP</a> لمحاذاة الصور والنصوص، و <a href="https://blog.voyageai.com/2026/01/15/voyage-multimodal-3-5/">Voyage Multimodal 3.5</a> للصور والفيديو &#8211; ولكن لم يكن أي منها يغطي مجموعة كاملة من الطرائق في مساحة متجهية واحدة موحدة. كان يجب نسخ الصوت عادةً قبل التضمين. كان الفيديو يتطلب استخراج الإطار مع تضمين نص منفصل. كانت الصور تعيش في فضاء متجه خاص بها بالكامل.    </p>
<p>تضمين الجوزاء 2 يغير هذه المعادلة. نموذج واحد، استدعاء واحد لواجهة برمجة التطبيقات، مساحة متجهة واحدة. </p>
<p>دعنا نتعمق في الجديد.</p>
<h2>ما هو تضمين الجوزاء 2؟</h2>
<p><a href="https://blog.google/innovation-and-ai/models-and-research/gemini-models/gemini-embedding-2/">Gemini Embedding 2</a> (<code>gemini-embedding-2-preview</code>) هو أول <a href="https://meetcody.ai/blog/text-embedding-models/">نموذج تضمين</a> متعدد الوسائط بالكامل من Google DeepMind. فهو يأخذ النصوص والصور ومقاطع الفيديو والتسجيلات الصوتية ومستندات PDF ويحولها جميعًا إلى متجهات تعيش في نفس الفضاء الدلالي المشترك. </p>
<p>على عكس المقاربات السابقة متعددة الوسائط مثل CLIP، والتي تقرن مشفر الرؤية مع مشفر النص وتوائم بينهما مع التعلم المتباين في النهاية، فإن Gemini Embedding 2 مبني على نموذج أساس Gemini نفسه. وهذا يعني أنه يرث الفهم العميق متعدد الوسائط من الألف إلى الياء. </p>
<div id="attachment_70663" style="width: 1034px" class="wp-caption aligncenter"><img fetchpriority="high" decoding="async" aria-describedby="caption-attachment-70663" class="wp-image-70663 size-full" src="https://meetcody.ai/wp-content/uploads/2026/03/embedding.png" alt="التضمينات متعددة الوسائط" width="1024" height="587" srcset="https://meetcody.ai/wp-content/uploads/2026/03/embedding.png 1024w, https://meetcody.ai/wp-content/uploads/2026/03/embedding-300x172.png 300w, https://meetcody.ai/wp-content/uploads/2026/03/embedding-768x440.png 768w" sizes="(max-width: 1024px) 100vw, 1024px" /><p id="caption-attachment-70663" class="wp-caption-text">صورة تم إنشاؤها باستخدام نانو موزة</p></div>
<p><strong>مثال عملي:</strong> تخيل أنك تقوم ببناء نظام إدارة التعلم (LMS) مع مقاطع فيديو تعليمية ومحاضرات صوتية وأدلة مكتوبة. باستخدام تضمين Gemini Embedding 2، يمكنك تخزين التضمينات لكل هذا المحتوى في مساحة متجه واحدة وإنشاء <a href="https://meetcody.ai/blog/rag-private-clouds/">روبوت محادثة قائم على RAG</a> يسترجع <a href="https://meetcody.ai/blog/how-does-cody-generate-responses-using-your-documents/">الأجزاء</a> ذات الصلة من مقاطع الفيديو والصوت والمستندات على حد سواء. في السابق، كان هذا يتطلب خط أنابيب تضمين متعدد الطبقات &#8211; وحتى في ذلك الحين، كان هذا يتطلب التقاط النصوص فقط، مع فقدان السياق المرئي للفيديو أو نبرة صوت المتحدث.  </p>
<p>يستخدم النموذج <a href="https://arxiv.org/abs/2205.13147">تعلُّم تمثيل ماتريوشكا،</a> مما يعني أنك لست مضطرًا لاستخدام جميع الأبعاد الـ 3072 إذا لم تكن بحاجة إليها. يمكنك تصغير حجمه إلى 1536 أو 768 ولا يزال بإمكانك الحصول على نتائج قابلة للاستخدام. </p>
<p><em>تعلُّم تمثيل ماتريوشكا (MRL) هو تقنية لتدريب نماذج التضمين بحيث تكون التمثيلات المستفادة مفيدة ليس فقط في أبعادها الكاملة ولكن أيضًا في أبعاد مختلفة أصغر &#8211; متداخلة داخل بعضها البعض مثل دمى ماتريوشكا الروسية. أثناء التدريب، يتم احتساب دالة الخسارة ليس فقط على التضمين الكامل ولكن أيضًا على البادئات المتعددة لمتجه التضمين. يشجع هذا النموذج على تجميع المعلومات الأكثر أهمية في الأبعاد الأولى، مع إضافة تفاصيل أكثر دقة في كل بُعد لاحق &#8211; هيكلية من الخشنة إلى الدقيقة.  </em></p>
<h2>الطرائق المعتمدة وحدود الإدخال</h2>
<p>يقبل النموذج خمسة أنواع من المدخلات، وكلها معيّنة في نفس مساحة التضمين:</p>
<table>
<thead>
<tr>
<th>الطريقة</th>
<th>حد الإدخال</th>
<th>التنسيقات</th>
</tr>
</thead>
<tbody>
<tr>
<td>نص</td>
<td>ما يصل إلى 8,192 رمزاً</td>
<td>نص عادي</td>
</tr>
<tr>
<td>الصور</td>
<td>ما يصل إلى 6 صور لكل طلب</td>
<td>PNG، JPEG</td>
</tr>
<tr>
<td>فيديو</td>
<td>حتى 120 ثانية</td>
<td>MP4، MOV</td>
</tr>
<tr>
<td>الصوت</td>
<td>ما يصل إلى 80 ثانية (أصلي، بدون نسخ)</td>
<td>MP3، WAV</td>
</tr>
<tr>
<td>ملفات PDF</td>
<td>مضمنة مباشرة</td>
<td>مستندات PDF</td>
</tr>
</tbody>
</table>
<h2>كيف تقارن بالنماذج الحالية</h2>
<p><strong>خلاصة القول:</strong> يتفوق نموذج Gemini Embedding 2 الجديد من Google على منافسيه (سابقه Amazon Nova 2، وVoyage Multimodal 3.5) في كل طريقة تقريبًا: النص والصورة والفيديو والكلام. ويتفوق بشكل مقنع في استرجاع الفيديو ومطابقة الصور والنصوص. المعيار الوحيد الذي لا يفوز فيه البرنامج هو استرجاع المستندات، حيث يتقدم Voyage قليلاً. استرجاع النصوص الكلامية هي فئة يمتلكها Gemini وحده حيث لا يوجد منافس يدعمها.   </p>
<p>نشرت جوجل مقارنات معيارية مع النماذج القديمة الخاصة بها، ونماذج أمازون نوفا 2 متعدد الوسائط، وفوياج متعدد الوسائط 3.5. إليكم الصورة كاملة: </p>
<h3>نص-نص</h3>
<table>
<thead>
<tr>
<th>متري</th>
<th>تضمين الجوزاء 2</th>
<th>تضمين الجوزاء-001</th>
<th>أمازون نوفا 2</th>
<th>رحلة متعددة الوسائط 3.5</th>
</tr>
</thead>
<tbody>
<tr>
<td>MTEB متعدد اللغات (متوسط المهمة)</td>
<td><strong>69.9</strong></td>
<td>68.4</td>
<td>63.8**</td>
<td>58.5***</td>
</tr>
<tr>
<td>رمز MTEB (متوسط المهمة)</td>
<td><strong>84.0</strong></td>
<td>76.0</td>
<td>*</td>
<td>*</td>
</tr>
</tbody>
</table>
<p>يتفوق Gemini Embedding 2 على النص متعدد اللغات بهامش مريح ويقفز 8 نقاط على سابقه في استرجاع الرموز. لا يقدم أمازون نوفا 2 ولا Voyage نتائج في استرجاع الرموز. </p>
<h3>نص-صورة</h3>
<table>
<thead>
<tr>
<th>متري</th>
<th>تضمين الجوزاء 2</th>
<th>تضمين متعدد الوسائط@001</th>
<th>أمازون نوفا 2</th>
<th>فوياج متعدد الوسائط 3.5</th>
</tr>
</thead>
<tbody>
<tr>
<td>قبعات النص (الاستدعاء@1)</td>
<td><strong>89.6</strong></td>
<td>74.0</td>
<td>76.0</td>
<td>79.4</td>
</tr>
<tr>
<td>دوتشي (استدعاء@1)</td>
<td><strong>93.4</strong></td>
<td>&#8211;</td>
<td>84.0</td>
<td>83.8</td>
</tr>
</tbody>
</table>
<p>تقدم واضح في استرجاع النص إلى الصورة &#8211; أكثر من 9 نقاط على أقرب منافس في كلا المعيارين.</p>
<h3>صورة-نص-صورة</h3>
<table>
<thead>
<tr>
<th>متري</th>
<th>تضمين الجوزاء 2</th>
<th>تضمين متعدد الوسائط@001</th>
<th>أمازون نوفا 2</th>
<th>فوياج متعدد الوسائط 3.5</th>
</tr>
</thead>
<tbody>
<tr>
<td>قبعات النص (الاستدعاء@1)</td>
<td><strong>97.4</strong></td>
<td>88.1</td>
<td>88.9</td>
<td>88.6</td>
</tr>
<tr>
<td>دوتشي (استدعاء@1)</td>
<td><strong>91.3</strong></td>
<td>&#8211;</td>
<td>76.5</td>
<td>77.4</td>
</tr>
</tbody>
</table>
<p>يُظهر استرجاع الصور إلى نصوص أوسع الفجوات &#8211; ما يقرب من 15 نقطة متقدمًا على Amazon Nova 2 على Docci.</p>
<h3>نص-مستند نصي</h3>
<table>
<thead>
<tr>
<th>متري</th>
<th>تضمين الجوزاء 2</th>
<th>تضمين متعدد الوسائط@001</th>
<th>أمازون نوفا 2</th>
<th>فوياج متعدد الوسائط 3.5</th>
</tr>
</thead>
<tbody>
<tr>
<td>ViDoRe v2 (ndcg@10)</td>
<td>64.9</td>
<td>28.9</td>
<td>60.6</td>
<td><strong>65.5**</strong></td>
</tr>
</tbody>
</table>
<p>المعيار الوحيد الذي تتفوق فيه Voyage Multimodal 3.5 على النماذج الأخرى (المبلغ عنها ذاتيًا). استرجاع المستندات متقارب بين أفضل النماذج. </p>
<h3>نص-فيديو</h3>
<table>
<thead>
<tr>
<th>متري</th>
<th>تضمين الجوزاء 2</th>
<th>تضمين متعدد الوسائط@001</th>
<th>أمازون نوفا 2</th>
<th>فوياج متعدد الوسائط 3.5</th>
</tr>
</thead>
<tbody>
<tr>
<td>فاتكس (NDCG@10)</td>
<td><strong>68.8</strong></td>
<td>54.9</td>
<td>60.3</td>
<td>55.2</td>
</tr>
<tr>
<td>MSR-VTT (NDCG@10)</td>
<td><strong>68.0</strong></td>
<td>57.9</td>
<td>67.0</td>
<td>63.0**</td>
</tr>
<tr>
<td>يوكوك 2 (ndcg@10)</td>
<td><strong>52.5</strong></td>
<td>34.9</td>
<td>34.7</td>
<td>31.4**</td>
</tr>
</tbody>
</table>
<p>إن استرجاع الفيديو هو المكان الذي يتقدم فيه Gemini Embedding 2 بأكبر عدد من النقاط &#8211; أكثر من 17 نقطة على Voyage على Youcook2 وأكثر من 13 نقطة على Vatex.</p>
<h3>نص-خطاب-نص</h3>
<table>
<thead>
<tr>
<th>متري</th>
<th>تضمين الجوزاء 2</th>
</tr>
</thead>
<tbody>
<tr>
<td>MSEB (mrr@10)</td>
<td><strong>73.9</strong></td>
</tr>
<tr>
<td>MSEB ASR**** (mr@10)</td>
<td><strong>70.4</strong></td>
</tr>
</tbody>
</table>
<p>استرجاع النصوص الكلامية غير متنازع عليه تمامًا &#8211; لا تدعمه أمازون ولا Voyage. هذه هي الفئة التي يمتلكها Gemini Embedding 2 بشكل مباشر. </p>
<p><em>&#8211; النتيجة غير متوفرة ** تم الإبلاغ عنها ذاتيًا *** voyage-3.5 **** نموذج ASR يحول الاستعلامات الصوتية إلى نص</em></p>
<h2>التسعير</h2>
<p>النموذج مجاني حاليًا أثناء المعاينة العامة. بمجرد الوصول إلى الفئة المدفوعة، إليك التفاصيل: </p>
<table>
<thead>
<tr>
<th></th>
<th>الفئة المجانية</th>
<th>الفئة المدفوعة (لكل 1 مليون توكن)</th>
</tr>
</thead>
<tbody>
<tr>
<td>إدخال النص</td>
<td>مجاناً</td>
<td>$0.20</td>
</tr>
<tr>
<td>إدخال الصورة</td>
<td>مجاناً</td>
<td>0.45 دولار (0.00012 دولار لكل صورة)</td>
</tr>
<tr>
<td>إدخال الصوت</td>
<td>مجاناً</td>
<td>6.50 دولار (0.00016 دولار في الثانية)</td>
</tr>
<tr>
<td>إدخال الفيديو</td>
<td>مجاناً</td>
<td>12.00 دولار (0.00079 دولار لكل إطار)</td>
</tr>
<tr>
<td>تُستخدم لتحسين منتجات جوجل</td>
<td>نعم</td>
<td>لا</td>
</tr>
</tbody>
</table>
<h2><strong>الشروع في العمل</strong></h2>
<p>يتوفر النموذج الآن في المعاينة العامة عبر واجهة برمجة تطبيقات Gemini و Vertex AI تحت معرف النموذج  <code>gemini-embedding-2-preview</code>. وهو يتكامل مع LangChain وLlamaIndex وHaystack وWeaviate وQdrant وChromaDB وVector Search.</p>
<pre><code class="language-jsx">from google import genai
from google.genai import types

# For Vertex AI:
# PROJECT_ID='&lt;add_here&gt;'
# client = genai.Client(vertexai=True, project=PROJECT_ID, location='us-central1')

client = genai.Client()

with open("example.png", "rb") as f:
    image_bytes = f.read()

with open("sample.mp3", "rb") as f:
    audio_bytes = f.read()

# Embed text, image, and audio 
result = client.models.embed_content(
    model="gemini-embedding-2-preview",
    contents=[
        "What is the meaning of life?",
        types.Part.from_bytes(
            data=image_bytes,
            mime_type="image/png",
        ),
        types.Part.from_bytes(
            data=audio_bytes,
            mime_type="audio/mpeg",
        ),
    ],
)

print(result.embeddings)
</code></pre>
<h2>جربها هنا!</h2>
<p>لقد أنشأنا <a href="https://gemini-2-trial.vercel.app">تطبيقًا</a> تجريبيًا يمكنك من خلاله اختبار أداء الاسترجاع متعدد الوسائط لتضمين الجيميني-2.</p>
<p>يمكنك الحصول على مفتاح API من خلال تسجيل الدخول إلى <a href="http://aistudio.google.com">aistudio.google.com.</a></p>
<h2>القيود التي يجب مراقبتها</h2>
<ul>
<li>لا يزال النموذج قيد المعاينة العامة (علامة &#8220;معاينة&#8221; تعني أن السعر والسلوك قد يتغيران قبل GA).</li>
<li>يبلغ الحد الأقصى لإدخال الفيديو 120 ثانية والصوت 80 ثانية.</li>
<li>الأداء في المجالات المتخصصة مثل ضمان الجودة المالية أضعف؛ قم بتقييمه مقابل بياناتك المحددة قبل الالتزام.</li>
<li>بالنسبة لخطوط الأنابيب النصية البحتة مع عدم وجود خطط متعددة الوسائط، قد لا يكون هناك ما يبرر علاوة التكلفة على النماذج النصية فقط.</li>
</ul>
<h2>خلاصة القول</h2>
<p>إن Gemini Embedding 2 ليس مجرد تحسين تدريجي، بل هو نقلة نوعية. بالنسبة للفرق التي تقوم ببناء أنظمة RAG متعددة الوسائط، أو البحث الدلالي عبر أنواع الوسائط، أو قواعد المعرفة الموحدة، فإنه يطوي ما كان يمثل مشكلة متعددة النماذج ومتعددة الخطوط في استدعاء واحد لواجهة برمجة التطبيقات. إذا كانت بياناتك تشمل أكثر من مجرد نص، فهذا هو النموذج الذي يجب تقييمه أولاً.  </p>
<p>لا ينبغي أن يعني بناء RAG متعدد الوسائط تجميع نماذج التضمين وقواعد البيانات المتجهة ومنطق الاسترجاع من الصفر. إذا كنت ترغب في الحصول على حل <a href="https://meetcody.ai/blog/rag-as-a-service-unlock-generative-ai-for-your-business/">RAG كخدمة</a> مُدار يتعامل مع خط أنابيب التضمين نيابةً عنك، <a href="https://getcody.ai/">اشترك</a> في الإصدار التجريبي المجاني في Cody وابدأ في البناء اليوم. </p>
<p><!-- notionvc: 1819203a-dd06-4804-9886-3355db49e8de --></p>
<p>The post <a href="https://meetcody.ai/ar/blog/%d8%aa%d8%b6%d9%85%d9%8a%d9%86-%d8%a7%d9%84%d8%ac%d9%88%d8%b2%d8%a7%d8%a1-2-%d8%a3%d9%88%d9%84-%d9%86%d9%85%d9%88%d8%b0%d8%ac-%d8%aa%d8%b6%d9%85%d9%8a%d9%86-%d9%85%d8%aa%d8%b9%d8%af%d8%af-%d8%a7/">تضمين الجوزاء 2: أول نموذج تضمين متعدد الوسائط من Google</a> appeared first on <a href="https://meetcody.ai/ar/">Cody - The AI Trained on Your Business</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Gemini 2.5 Pro و GPT-4.5: من يقود ثورة الذكاء الاصطناعي؟</title>
		<link>https://meetcody.ai/ar/blog/gemini-2-5-pro-%d9%88-gpt-4-5-%d9%85%d9%86-%d9%8a%d9%82%d9%88%d8%af-%d8%ab%d9%88%d8%b1%d8%a9-%d8%a7%d9%84%d8%b0%d9%83%d8%a7%d8%a1-%d8%a7%d9%84%d8%a7%d8%b5%d8%b7%d9%86%d8%a7%d8%b9%d9%8a%d8%9f/</link>
		
		<dc:creator><![CDATA[Om Kamath]]></dc:creator>
		<pubDate>Wed, 26 Mar 2025 15:36:01 +0000</pubDate>
				<category><![CDATA[غير مصنف]]></category>
		<guid isPermaLink="false">https://meetcody.ai/blog/gemini-2-5-pro-%d9%88-gpt-4-5-%d9%85%d9%86-%d9%8a%d9%82%d9%88%d8%af-%d8%ab%d9%88%d8%b1%d8%a9-%d8%a7%d9%84%d8%b0%d9%83%d8%a7%d8%a1-%d8%a7%d9%84%d8%a7%d8%b5%d8%b7%d9%86%d8%a7%d8%b9%d9%8a%d8%9f/</guid>

					<description><![CDATA[<p>في عام 2025، أصبح عالم الذكاء الاصطناعي مثيراً للغاية، حيث تتنافس شركات التكنولوجيا الكبرى بشراسة لابتكار أكثر أنظمة الذكاء الاصطناعي تقدماً على الإطلاق. وقد أثارت هذه المنافسة الشديدة الكثير من الأفكار الجديدة، مما دفع حدود ما يمكن أن يفعله الذكاء الاصطناعي في التفكير وحل المشاكل والتفاعل مثل البشر. على مدار الشهر الماضي، كانت هناك تحسينات<a class="excerpt-read-more" href="https://meetcody.ai/ar/blog/gemini-2-5-pro-%d9%88-gpt-4-5-%d9%85%d9%86-%d9%8a%d9%82%d9%88%d8%af-%d8%ab%d9%88%d8%b1%d8%a9-%d8%a7%d9%84%d8%b0%d9%83%d8%a7%d8%a1-%d8%a7%d9%84%d8%a7%d8%b5%d8%b7%d9%86%d8%a7%d8%b9%d9%8a%d8%9f/" title="ReadGemini 2.5 Pro و GPT-4.5: من يقود ثورة الذكاء الاصطناعي؟">... Read more &#187;</a></p>
<p>The post <a href="https://meetcody.ai/ar/blog/gemini-2-5-pro-%d9%88-gpt-4-5-%d9%85%d9%86-%d9%8a%d9%82%d9%88%d8%af-%d8%ab%d9%88%d8%b1%d8%a9-%d8%a7%d9%84%d8%b0%d9%83%d8%a7%d8%a1-%d8%a7%d9%84%d8%a7%d8%b5%d8%b7%d9%86%d8%a7%d8%b9%d9%8a%d8%9f/">Gemini 2.5 Pro و GPT-4.5: من يقود ثورة الذكاء الاصطناعي؟</a> appeared first on <a href="https://meetcody.ai/ar/">Cody - The AI Trained on Your Business</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p data-pm-slice="0 0 []">في عام 2025، أصبح عالم الذكاء الاصطناعي مثيراً للغاية، حيث تتنافس شركات التكنولوجيا الكبرى بشراسة لابتكار أكثر أنظمة الذكاء الاصطناعي تقدماً على الإطلاق. وقد أثارت هذه المنافسة الشديدة الكثير من الأفكار الجديدة، مما دفع حدود ما يمكن أن يفعله الذكاء الاصطناعي في التفكير وحل المشاكل والتفاعل مثل البشر. على مدار الشهر الماضي، كانت هناك تحسينات مذهلة، حيث كان هناك لاعبان رئيسيان في المقدمة: Gemini 2.5 Pro من Google و GPT-4.5 من OpenAI. في كشفٍ كبير في مارس 2025، قدمت Google Gemini 2.5 Pro، الذي يطلقون عليه أذكى ابتكاراتهم حتى الآن. وسرعان ما أصبح الأفضل أداءً على لوحة المتصدرين في <a href="https://lmarena.ai/?p2l" target="_blank" rel="noopener noreferrer">LMArena،</a> متفوقًا على منافسيه. ما يجعل Gemini 2.5 مميزًا هو قدرته على التفكير بعناية في الاستجابات، مما يساعده على أداء أفضل في المهام المعقدة التي تتطلب تفكيرًا عميقًا.     </p>
<p>لعدم رغبتها في التخلف عن الركب، أطلقت OpenAI نموذج الدردشة GPT-4.5، وهو أكبر نماذج الدردشة وأكثرها تقدماً حتى الآن. هذا النموذج رائع في التعرف على الأنماط وإجراء الروابط والخروج بأفكار إبداعية. تُظهِر الاختبارات المبكرة أن التفاعل مع GPT-4.5 يبدو طبيعياً للغاية، وذلك بفضل النطاق الواسع من المعرفة والفهم المحسّن لما يعنيه المستخدمون. يركز OpenAI على التحسينات الكبيرة التي حققها GPT-4.5 في التعلم دون إشراف مباشر، وهو مصمم للتعاون السلس مع البشر.   </p>
<p>إن أنظمة الذكاء الاصطناعي هذه ليست مجرد تكنولوجيا مثيرة للإعجاب؛ فهي تغير طريقة عمل الشركات، وتسرّع الاكتشافات العلمية، وتغير المشاريع الإبداعية. ومع تحول الذكاء الاصطناعي إلى جزء طبيعي من الحياة اليومية، تعمل نماذج مثل Gemini 2.5 Pro و GPT-4.5 على توسيع ما نعتقد أنه ممكن. وبفضل مهارات التفكير الأفضل، وفرص أقل في نشر المعلومات الخاطئة، وإتقان حل المشكلات المعقدة، فإنها تمهد الطريق لأنظمة الذكاء الاصطناعي التي تدعم التقدم البشري حقًا.  </p>
<h2>فهم Gemini 2.5 Pro</h2>
<p>في 25 مارس 2025، كشفت Google رسميًا عن Gemini 2.5 Pro، الذي وُصف بأنه &#8220;أكثر نماذج الذكاء الاصطناعي ذكاءً&#8221; حتى الآن. وقد شكّل هذا الإصدار علامة فارقة في رحلة تطوير الذكاء الاصطناعي من Google، حيث جاء بعد <a href="https://meetcody.ai/blog/chatgpt-killer-what-gemini-means-for-googles-ai-future/" target="_blank" rel="noopener noreferrer">عدة تكرارات</a> لنماذج الإصدار 2.0. وقد بدأت استراتيجية الإصدار بالإصدار التجريبي أولاً، مما أتاح لمشتركي Gemini Advanced إمكانية الوصول المبكر لاختبار قدراته.  </p>
<p><img decoding="async" class="aligncenter wp-image-50851 size-large" src="https://meetcody.ai/wp-content/uploads/2025/03/final_2.5_blog_1.original-1024x629.jpg" alt="مقاييس Gemini 2.5 المعيارية" width="1024" height="629" srcset="https://meetcody.ai/wp-content/uploads/2025/03/final_2.5_blog_1.original-1024x629.jpg 1024w, https://meetcody.ai/wp-content/uploads/2025/03/final_2.5_blog_1.original-300x184.jpg 300w, https://meetcody.ai/wp-content/uploads/2025/03/final_2.5_blog_1.original-768x472.jpg 768w, https://meetcody.ai/wp-content/uploads/2025/03/final_2.5_blog_1.original-1536x943.jpg 1536w, https://meetcody.ai/wp-content/uploads/2025/03/final_2.5_blog_1.original-2048x1258.jpg 2048w, https://meetcody.ai/wp-content/uploads/2025/03/final_2.5_blog_1.original-1055x648.jpg 1055w" sizes="(max-width: 1024px) 100vw, 1024px" /></p>
<p>ما يفصل Gemini 2.5 Pro عن سابقيه هو بنيته الأساسية باعتباره<a href="https://ai.google.dev/gemini-api/docs/thinking#:~:text=Gemini%202.5%20Pro%20Experimental%20and,them%20to%20solve%20complex%20tasks." target="_blank" rel="noopener noreferrer">&#8220;نموذج تفكير&#8221;.</a> على عكس الأجيال السابقة التي اعتمدت في المقام الأول على أنماط البيانات المدرّبة، يمكن لهذا النموذج أن يفكر بفاعلية من خلال أفكاره قبل الاستجابة، محاكياً بذلك عمليات حل المشكلات البشرية. يمثل هذا تقدمًا كبيرًا في كيفية معالجة أنظمة الذكاء الاصطناعي للمعلومات وتوليد الاستجابات. </p>
<h3>الميزات والقدرات الرئيسية:</h3>
<ol class="tight" data-tight="true">
<li><strong>تعزيز القدرات المنطقية</strong> &#8211; القدرة على حل المشكلات خطوة بخطوة في المجالات المعقدة</li>
<li><strong>نافذة السياق الموسعة</strong> &#8211; سعة 1 مليون توكن (مع وجود خطط للتوسع إلى 2 مليون)</li>
<li><strong>تعددية الوسائط الأصلية</strong> &#8211; تعالج النصوص والصور والصوت والصوت والفيديو والرموز بسلاسة</li>
<li><strong>قدرات التعليمات البرمجية المتقدمة</strong> &#8211; تحسينات كبيرة في إنشاء تطبيقات الويب وتحويل التعليمات البرمجية</li>
</ol>
<p>لقد أثبت Gemini 2.5 Pro نفسه كرائد في الأداء، حيث ظهر لأول مرة في المركز الأول على لوحة المتصدرين في LMArena. فهو يتفوق بشكل خاص في المعايير التي تتطلب استدلالًا متقدمًا، حيث سجل نتائج رائدة في المجال بنسبة 18.8% في اختبار الإنسانية الأخير دون استخدام أدوات خارجية. وفي الرياضيات والعلوم، يُظهر البرنامج كفاءة ملحوظة مع درجات 86.7% في اختبار AIME 2025 و79.7% في اختبار GPQA الماسي على التوالي.  </p>
<p>بالمقارنة مع نماذج Gemini السابقة، يمثل الإصدار 2.5 Pro قفزة كبيرة إلى الأمام. بينما قدم Gemini 2.0 قدرات تأسيسية مهمة، يجمع الإصدار 2.5 Pro بين نموذج أساسي محسّن بشكل كبير مع تقنيات محسنة بعد التدريب. تظهر التحسينات الأكثر بروزًا في أداء الترميز، وعمق التفكير، والفهم السياقي &#8211; وهي مجالات أظهرت فيها الإصدارات السابقة قيودًا.  </p>
<h2>استكشاف GPT-4.5</h2>
<p>في أبريل 2025، طرحت OpenAI نموذج GPT-4.5، واصفةً إياه بأنه &#8220;أكبر نماذج الدردشة وأكثرها تقدماً حتى الآن&#8221;، مما يدل على إنجاز جدير بالملاحظة في تطور نماذج اللغات الكبيرة. أثارت هذه المعاينة البحثية حماسًا فوريًا داخل مجتمع الذكاء الاصطناعي، حيث أشارت الاختبارات الأولية إلى أن التفاعلات مع النموذج تبدو طبيعية بشكل استثنائي، وذلك بفضل قاعدته المعرفية الواسعة وقدرته المحسّنة على فهم نوايا المستخدم. </p>
<p>يعرض GPT-4.5 تطورات كبيرة في قدرات التعلّم غير الخاضع للإشراف. وقد حقق OpenAI هذا التقدم من خلال توسيع نطاق كل من القدرة الحاسوبية ومدخلات البيانات، إلى جانب استخدام استراتيجيات معمارية وتحسينية مبتكرة. تم تدريب النموذج على أجهزة كمبيوتر مايكروسوفت Azure للذكاء الاصطناعي العملاقة، استمراراً للشراكة التي مكّنت OpenAI من دفع حدود الإمكانيات.  </p>
<h3>التحسينات والقدرات الأساسية:</h3>
<ol class="tight" data-tight="true">
<li><strong>تحسين التعرف على الأنماط</strong> &#8211; تحسن كبير في القدرة على التعرف على الأنماط ورسم الروابط وتوليد رؤى إبداعية</li>
<li><strong>تقليل الهلوسة</strong> &#8211; أقل عرضة لتوليد معلومات خاطئة مقارنةً بالنماذج السابقة مثل <a href="https://meetcody.ai/blog/gpt-4o-unveiled/" target="_blank" rel="noopener noreferrer">GPT-4o</a> <a href="https://meetcody.ai/blog/openai-o3-vs-o1-the-future-of-ai-reasoning-and-safety-unveiled/" target="_blank" rel="noopener noreferrer">وO1</a></li>
<li><strong>تحسين &#8220;الذكاء العاطفي&#8221;</strong> &#8211; زيادة الذكاء العاطفي وفهم التفاعلات الإنسانية الدقيقة</li>
<li><strong>قابلية توجيه متقدمة</strong> &#8211; فهم أفضل لتعليمات المستخدم المعقدة والالتزام بها</li>
</ol>
<p>لقد ركز OpenAI بشكل خاص على تدريب GPT-4.5 على التعاون البشري. تعمل التقنيات الجديدة على تعزيز قابلية النموذج للتوجيه وفهم الفروق الدقيقة وتدفق المحادثة الطبيعية. وهذا يجعله فعالاً بشكل خاص في المساعدة في الكتابة والتصميم، حيث يُظهر حدساً وإبداعاً جمالياً أقوى من التكرارات السابقة.  </p>
<p>في تطبيقات العالم الحقيقي، يُظهر GPT-4.5 تنوعًا ملحوظًا في الاستخدامات. فقاعدته المعرفية الموسّعة وقدراته المعرفية المحسّنة تجعله مناسبًا لمجموعة واسعة من المهام، بدءًا من إنشاء المحتوى التفصيلي إلى حل المشكلات المعقدة. وصف سام ألتمان، الرئيس التنفيذي لشركة OpenAI، النموذج بعبارات إيجابية، مسلطاً الضوء على &#8220;فعاليته الفريدة&#8221; على الرغم من عدم تصدره في جميع الفئات المعيارية.  </p>
<p>تعكس استراتيجية النشر الخاصة ب GPT-4.5 نهج OpenAI المحسوب لإصدار أنظمة ذكاء اصطناعي قوية. في البداية سيكون متاحاً لمشتركي ChatGPT Pro والمطورين على المستويات المدفوعة من خلال واجهات برمجة التطبيقات المختلفة، وتخطط الشركة لتوسيع نطاق الوصول تدريجياً إلى مشتركي ChatGPT Plus و Team و Edu و Enterprise. يسمح هذا الطرح التدريجي ل OpenAI بمراقبة الأداء والسلامة مع زيادة الاستخدام.  </p>
<h2>مقاييس الأداء: تحليل مقارن</h2>
<p>عند فحص القدرات التقنية لنماذج الذكاء الاصطناعي المتقدمة هذه، يوفر الأداء المعياري المقياس الأكثر موضوعية لقدراتها. يُظهر كل من Gemini 2.5 Pro و GPT-4.5 نقاط قوة فريدة في مختلف المجالات، حيث تكشف الاختبارات المعيارية عن مزاياها المتميزة. </p>
<table>
<colgroup>
<col>
<col>
<col>
<col>
<col></colgroup>
<tbody>
<tr>
<th colspan="1" rowspan="1">بنشمارك</th>
<th colspan="1" rowspan="1">جيميني 2.5 برو (03-25)</th>
<th colspan="1" rowspan="1">OpenAI GPT-4.5</th>
<th colspan="1" rowspan="1">كلود 3.7 سونيت</th>
<th colspan="1" rowspan="1">معاينة Grok 3</th>
</tr>
<tr>
<td colspan="1" rowspan="1">LMArena (بشكل عام)</td>
<td colspan="1" rowspan="1">#1</td>
<td colspan="1" rowspan="1">2</td>
<td colspan="1" rowspan="1">21</td>
<td colspan="1" rowspan="1">2</td>
</tr>
<tr>
<td colspan="1" rowspan="1">امتحان البشرية الأخير (بدون أدوات)</td>
<td colspan="1" rowspan="1">18.8%</td>
<td colspan="1" rowspan="1">6.4%</td>
<td colspan="1" rowspan="1">8.9%</td>
<td colspan="1" rowspan="1">&#8211;</td>
</tr>
<tr>
<td colspan="1" rowspan="1">GPQA الماس (محاولة واحدة)</td>
<td colspan="1" rowspan="1">84.0%</td>
<td colspan="1" rowspan="1">71.4%</td>
<td colspan="1" rowspan="1">78.2%</td>
<td colspan="1" rowspan="1">80.2%</td>
</tr>
<tr>
<td colspan="1" rowspan="1">AIME 2025 (محاولة واحدة)</td>
<td colspan="1" rowspan="1">86.7%</td>
<td colspan="1" rowspan="1">&#8211;</td>
<td colspan="1" rowspan="1">49.5%</td>
<td colspan="1" rowspan="1">77.3%</td>
</tr>
<tr>
<td colspan="1" rowspan="1">تم التحقق من SWE-Bench Verved</td>
<td colspan="1" rowspan="1">63.8%</td>
<td colspan="1" rowspan="1">38.0%</td>
<td colspan="1" rowspan="1">70.3%</td>
<td colspan="1" rowspan="1">&#8211;</td>
</tr>
<tr>
<td colspan="1" rowspan="1">آيدر متعدد اللغات (كامل/مختلف)</td>
<td colspan="1" rowspan="1">74.0% / 68.6%</td>
<td colspan="1" rowspan="1">44.9% فرق</td>
<td colspan="1" rowspan="1">64.9% فرق</td>
<td colspan="1" rowspan="1">&#8211;</td>
</tr>
<tr>
<td colspan="1" rowspan="1">MRCR (128 ألف)</td>
<td colspan="1" rowspan="1">91.5%</td>
<td colspan="1" rowspan="1">48.8%</td>
<td colspan="1" rowspan="1">&#8211;</td>
<td colspan="1" rowspan="1">&#8211;</td>
</tr>
</tbody>
</table>
<p>يُظهِر Gemini 2.5 Pro قوة استثنائية في المهام <a href="https://www.digitalocean.com/community/tutorials/understanding-reasoning-in-llms" target="_blank" rel="noopener noreferrer">التي تتطلب تفكيراً مكثفاً،</a> ويتفوق بشكل خاص في التفكير طويل السياق والاحتفاظ بالمعرفة. ويتفوق بشكل كبير على المنافسين في اختبار الإنسانية الأخير، الذي يختبر حدود المعرفة البشرية. ومع ذلك، فإنه يُظهر ضعفًا نسبيًا في توليد الشيفرات البرمجية والترميز العملي، ويكافح أحيانًا في الواقعية في مجالات معينة.  </p>
<p>وعلى العكس من ذلك، يُظهر GPT-4.5 تميزًا خاصًا في التعرف على الأنماط وتوليد الرؤى الإبداعية والاستدلال العلمي. فهو يتفوق في معيار <a href="https://arxiv.org/abs/2311.12022" target="_blank" rel="noopener noreferrer">GPQA</a> الماسي، ويُظهر قدرات قوية في المجالات العلمية. كما يُظهر النموذج أيضًا ذكاءً عاطفيًا معززًا وحدسًا جماليًا، مما يجعله ذا قيمة خاصة للتطبيقات الإبداعية والموجهة نحو التصميم. وتتمثل الميزة الرئيسية في انخفاض ميله إلى توليد معلومات خاطئة مقارنةً بسابقاته.   </p>
<p>من الناحية العملية، يمثل Gemini 2.5 Pro الخيار الأفضل للمهام التي تتطلب التفكير العميق والفهم متعدد الوسائط والتعامل مع السياقات الطويلة للغاية. يوفر GPT-4.5 مزايا في العمل الإبداعي والمساعدة في التصميم والتطبيقات التي تكون فيها الدقة الواقعية والتدفق الطبيعي للمحادثة أمرًا بالغ الأهمية. </p>
<h2>التطبيقات وحالات الاستخدام</h2>
<p>في حين أن الأداء المعياري يوفر رؤى تقنية قيّمة، فإن المقياس الحقيقي لنماذج الذكاء الاصطناعي المتقدمة هذه يكمن في تطبيقاتها العملية في مختلف المجالات. يُظهر كل من Gemini 2.5 Pro و GPT-4.5 نقاط قوة متميزة تجعلهما مناسبين لحالات استخدام مختلفة، حيث بدأت المؤسسات بالفعل في الاستفادة من قدراتهما لحل المشاكل المعقدة. </p>
<h3>برنامج Gemini 2.5 Pro في المجالات العلمية والتقنية</h3>
<p>إن قدرات Gemini 2.5 Pro الاستثنائية في التفكير المنطقي ونافذة السياق الواسعة تجعله ذا قيمة خاصة للبحث العلمي والتطبيقات التقنية. وقدرته على معالجة وتحليل البيانات <a href="https://cloud.google.com/use-cases/multimodal-ai?hl=en" target="_blank" rel="noopener noreferrer">متعددة الوسائط</a> &#8211; بما في ذلك النصوص والصور والصوت والصوت والفيديو والرموز &#8211; تمكنه من التعامل مع المشاكل المعقدة التي تتطلب تجميع المعلومات من مصادر متنوعة. يفتح هذا التنوع إمكانيات عديدة في مختلف الصناعات التي تتطلب دقة تقنية وتحليلًا شاملاً.  </p>
<ol class="tight" data-tight="true">
<li><strong>البحث العلمي وتحليل البيانات</strong> &#8211; يُظهر أداء Gemini 2.5 Pro القوي على معايير مثل GPQA (79.7%) قدرته على مساعدة الباحثين في تحليل الأدبيات العلمية المعقدة، وتوليد الفرضيات، وتفسير النتائج التجريبية</li>
<li><strong>تطوير وهندسة البرمجيات</strong> &#8211; يتفوق النموذج في إنشاء تطبيقات الويب وإجراء تحويلات التعليمات البرمجية وتطوير البرامج المعقدة مع حصوله على 63.8% من النقاط في اختبار SWE-Bench الذي تم التحقق منه باستخدام إعدادات الوكيل المخصص</li>
<li><strong>التشخيص الطبي والرعاية الصحية</strong> &#8211; تتيح قدراته المنطقية تحليل الصور الطبية إلى جانب بيانات المريض لدعم أخصائيي الرعاية الصحية في عمليات التشخيص</li>
<li><strong>تحليلات البيانات الضخمة وإدارة المعرفة</strong> &#8211; تسمح نافذة سياق المليون رمز (ستتوسع قريبًا إلى مليوني رمز) بمعالجة مجموعات بيانات كاملة ومستودعات رموز في مطالبة واحدة</li>
</ol>
<h3>التميز في مهام الإبداع والتواصل في GPT-4.5 في GPT-4.5</h3>
<p>في المقابل، يُظهر نموذج GPT-4.5 قوة خاصة في المهام التي تتطلب التواصل الدقيق والتفكير الإبداعي والحكم الجمالي. ركز OpenAI على تدريب هذا النموذج خصيصًا للتعاون البشري، مما أدى إلى تعزيز قدرات إنشاء المحتوى والمساعدة في التصميم والتواصل الطبيعي. </p>
<ol class="tight" data-tight="true">
<li><strong>إنشاء المحتوى وكتابة المحتوى</strong> &#8211; يُظهر GPT-4.5 حدسًا جماليًا وإبداعًا محسّنًا، مما يجعله ذا قيمة في إنشاء نسخ تسويقية ومقالات ونصوص ومحتويات مكتوبة أخرى</li>
<li><strong>التعاون في التصميم</strong> &#8211; إن الفهم المحسّن للنموذج للفوارق الدقيقة والسياق يجعله شريكاً فعالاً في عمليات التصميم، بدءاً من وضع التصورات وحتى التنقيح</li>
<li><strong>مشاركة العملاء</strong> &#8211; مع زيادة الذكاء العاطفي، يوفر GPT-4.5 استجابات أكثر ملاءمة وطبيعية في سياقات خدمة العملاء</li>
<li><strong>تطوير المحتوى التعليمي</strong> &#8211; يتفوق النموذج في تكييف التفسيرات مع مستويات المعرفة وأساليب التعلم المختلفة</li>
</ol>
<p>تعمل الشركات في مختلف القطاعات بالفعل على دمج هذه النماذج في سير عملها. فقد قامت شركة Microsoft بدمج تقنية OpenAI مباشرةً في مجموعة منتجاتها، مما يوفر للمستخدمين من المؤسسات إمكانية الوصول الفوري إلى قدرات GPT-4.5. وبالمثل، يجد Gemini 2.5 Pro من Google تطبيقات في المؤسسات البحثية وشركات التكنولوجيا التي تسعى إلى الاستفادة من نقاط قوتها المنطقية والمتعددة الوسائط.  </p>
<p>تشير نقاط القوة التكميلية لهذين النموذجين إلى أن العديد من المؤسسات قد تستفيد من استخدامهما معًا، اعتمادًا على حالات استخدام محددة. ومع استمرار نضج هذه التقنيات، يمكننا أن نتوقع أن نرى تطبيقات متطورة بشكل متزايد تعمل على تحويل العمل المعرفي والعمليات الإبداعية وحل المشكلات بشكل أساسي في مختلف الصناعات. </p>
<h2>مستقبل الذكاء الاصطناعي: ماذا بعد؟</h2>
<p>نظرًا لأن Gemini 2.5 Pro و GPT-4.5 يدفعان حدود ما هو ممكن، فإن المسار المستقبلي لتطوير الذكاء الاصطناعي يصبح أكثر وضوحًا. يشير التزام Google ب &#8220;بناء قدرات التفكير مباشرةً في جميع النماذج&#8221; إلى مستقبل يصبح فيه التفكير المنطقي معيارًا في جميع أنظمة الذكاء الاصطناعي. وبالمثل، يشير نهج OpenAI المتمثل في &#8220;توسيع نطاق التعلم والاستدلال غير الخاضع للإشراف&#8221; إلى نماذج ذات قدرات متزايدة باستمرار لفهم وتوليد محتوى شبيه بالبشر.  </p>
<p>من المرجح أن تشهد السنوات القادمة نماذج ذكاء اصطناعي ذات نوافذ سياق موسعة بشكل كبير تتجاوز الحدود الحالية، وتفكير أكثر تطوراً، وتكامل سلس عبر جميع الطرائق. وقد نشهد أيضاً ظهور وكلاء ذكاء اصطناعي ذاتي حقيقيين قادرين على تنفيذ مهام معقدة بأقل قدر من الإشراف البشري. ومع ذلك، تجلب هذه التطورات تحديات كبيرة. فمع زيادة قدرات الذكاء الاصطناعي، تزداد أهمية معالجة المخاطر المحتملة المتعلقة بالمعلومات المضللة والخصوصية وإزاحة العمالة البشرية.   </p>
<p>يجب أن تظل الاعتبارات الأخلاقية في طليعة تطوير الذكاء الاصطناعي. تقر OpenAI بأن &#8220;كل زيادة في قدرات النماذج هي فرصة لجعل النماذج أكثر أمانًا&#8221;، مما يسلط الضوء على المسؤولية المزدوجة للتقدم والحماية. سيحتاج مجتمع الذكاء الاصطناعي إلى تطوير أطر حوكمة قوية تشجع على الابتكار مع الحماية من سوء الاستخدام.  </p>
<p>إن ثورة الذكاء الاصطناعي التي يمثلها Gemini 2.5 Pro و GPT-4.5 في بدايتها فقط. في حين أن وتيرة التقدم تجلب الإثارة والتخوف على حد سواء، يبقى شيء واحد واضح: لن يتحدد مستقبل الذكاء الاصطناعي بالقدرات التكنولوجية فحسب، بل بكيفية اختيارنا لتسخيرها لصالح الإنسان. من خلال إعطاء الأولوية للتطوير المسؤول الذي يعزز الإمكانات البشرية بدلاً من استبدالها، يمكننا أن نضمن أن الجيل القادم من نماذج الذكاء الاصطناعي سيكون بمثابة أدوات قوية للتقدم الجماعي.  </p>
<p>The post <a href="https://meetcody.ai/ar/blog/gemini-2-5-pro-%d9%88-gpt-4-5-%d9%85%d9%86-%d9%8a%d9%82%d9%88%d8%af-%d8%ab%d9%88%d8%b1%d8%a9-%d8%a7%d9%84%d8%b0%d9%83%d8%a7%d8%a1-%d8%a7%d9%84%d8%a7%d8%b5%d8%b7%d9%86%d8%a7%d8%b9%d9%8a%d8%9f/">Gemini 2.5 Pro و GPT-4.5: من يقود ثورة الذكاء الاصطناعي؟</a> appeared first on <a href="https://meetcody.ai/ar/">Cody - The AI Trained on Your Business</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>توقعات الذكاء الاصطناعي لعام 2025: الاتجاهات الناشئة والتقنيات المتطورة والتحولات في الصناعة</title>
		<link>https://meetcody.ai/ar/blog/%d8%aa%d9%88%d9%82%d8%b9%d8%a7%d8%aa-%d8%a7%d9%84%d8%b0%d9%83%d8%a7%d8%a1-%d8%a7%d9%84%d8%a7%d8%b5%d8%b7%d9%86%d8%a7%d8%b9%d9%8a-%d9%84%d8%b9%d8%a7%d9%85-2025-%d8%a7%d9%84%d8%a7%d8%aa%d8%ac%d8%a7/</link>
		
		<dc:creator><![CDATA[Oriol Zertuche]]></dc:creator>
		<pubDate>Tue, 04 Mar 2025 17:26:55 +0000</pubDate>
				<category><![CDATA[قاعدة المعرفة الذكاء الاصطناعي]]></category>
		<guid isPermaLink="false">https://meetcody.ai/blog/%d8%aa%d9%88%d9%82%d8%b9%d8%a7%d8%aa-%d8%a7%d9%84%d8%b0%d9%83%d8%a7%d8%a1-%d8%a7%d9%84%d8%a7%d8%b5%d8%b7%d9%86%d8%a7%d8%b9%d9%8a-%d9%84%d8%b9%d8%a7%d9%85-2025-%d8%a7%d9%84%d8%a7%d8%aa%d8%ac%d8%a7/</guid>

					<description><![CDATA[<p>مع اقترابنا من عام 2025، يعمل الذكاء الاصطناعي (AI) على إعادة تشكيل الصناعات والمجتمع وكيفية تفاعلنا مع التكنولوجيا بطرق مثيرة ومفاجئة في بعض الأحيان. فمن وكلاء الذكاء الاصطناعي الذين يمكنهم العمل بشكل مستقل إلى الأنظمة التي تدمج بسلاسة بين النصوص والفيديو والصوت، يتطور هذا المجال بشكل أسرع من أي وقت مضى. بالنسبة لرواد الأعمال والمطورين<a class="excerpt-read-more" href="https://meetcody.ai/ar/blog/%d8%aa%d9%88%d9%82%d8%b9%d8%a7%d8%aa-%d8%a7%d9%84%d8%b0%d9%83%d8%a7%d8%a1-%d8%a7%d9%84%d8%a7%d8%b5%d8%b7%d9%86%d8%a7%d8%b9%d9%8a-%d9%84%d8%b9%d8%a7%d9%85-2025-%d8%a7%d9%84%d8%a7%d8%aa%d8%ac%d8%a7/" title="Readتوقعات الذكاء الاصطناعي لعام 2025: الاتجاهات الناشئة والتقنيات المتطورة والتحولات في الصناعة">... Read more &#187;</a></p>
<p>The post <a href="https://meetcody.ai/ar/blog/%d8%aa%d9%88%d9%82%d8%b9%d8%a7%d8%aa-%d8%a7%d9%84%d8%b0%d9%83%d8%a7%d8%a1-%d8%a7%d9%84%d8%a7%d8%b5%d8%b7%d9%86%d8%a7%d8%b9%d9%8a-%d9%84%d8%b9%d8%a7%d9%85-2025-%d8%a7%d9%84%d8%a7%d8%aa%d8%ac%d8%a7/">توقعات الذكاء الاصطناعي لعام 2025: الاتجاهات الناشئة والتقنيات المتطورة والتحولات في الصناعة</a> appeared first on <a href="https://meetcody.ai/ar/">Cody - The AI Trained on Your Business</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p>مع اقترابنا من عام 2025، يعمل الذكاء الاصطناعي (AI) على إعادة تشكيل الصناعات والمجتمع وكيفية تفاعلنا مع التكنولوجيا بطرق مثيرة ومفاجئة في بعض الأحيان. فمن وكلاء الذكاء الاصطناعي الذين يمكنهم العمل بشكل مستقل إلى الأنظمة التي تدمج بسلاسة بين النصوص والفيديو والصوت، يتطور هذا المجال بشكل أسرع من أي وقت مضى. بالنسبة لرواد الأعمال والمطورين في مجال التكنولوجيا، فإن مواكبة هذه التغييرات ليست مجرد ذكاء &#8211; بل هي أمر ضروري.  </p>
<p>دعونا نفهم الاتجاهات والاختراقات والتحديات التي ستشكل الذكاء الاصطناعي في عام 2025 وما بعده.</p>
<h2>نظرة سريعة إلى الوراء: كيف غيّر الذكاء الاصطناعي عالمنا</h2>
<p>كانت رحلة الذكاء الاصطناعي منذ <a href="https://www.techtarget.com/searchenterpriseai/tip/The-history-of-artificial-intelligence-Complete-AI-timeline">خمسينيات</a> القرن الماضي وحتى اليوم قصة تطور رائعة. فمن أنظمة بسيطة قائمة على القواعد، تطورت إلى نماذج متطورة قادرة على التفكير والإبداع والاستقلالية. وعلى مدار العقد الماضي، انتقل الذكاء الاصطناعي من مرحلة التجريب إلى مرحلة لا غنى عنها، وأصبح محركاً أساسياً للابتكار في مختلف الصناعات.  </p>
<h3>الرعاية الصحية</h3>
<p>أصبحت الأدوات المدعومة بالذكاء الاصطناعي الآن جزءًا لا يتجزأ من التشخيص والطب الشخصي وحتى الروبوتات الجراحية. لقد دفعت تقنيات مثل التصوير المحسّن بالذكاء الاصطناعي حدود الكشف المبكر عن الأمراض، حيث أصبحت تنافس القدرات البشرية وتتفوق عليها في الدقة والسرعة. </p>
<h3>التعليم</h3>
<p>لقد أحدثت منصات الذكاء الاصطناعي التكيفي تغييراً جذرياً في كيفية تعلم الطلاب. فهي تستخدم تحليل البيانات التفصيلية لتخصيص المحتوى، ووتيرة التعلم، والمشاركة على المستوى الفردي. </p>
<h3>النقل والمواصلات</h3>
<p>لقد تطورت الأنظمة ذاتية القيادة من نماذج تجريبية إلى حلول قابلة للتطبيق في مجال الخدمات اللوجستية والنقل العام، مدعومة بالتقدم في دمج أجهزة الاستشعار والرؤية الحاسوبية واتخاذ القرارات في الوقت الحقيقي.</p>
<p>في حين أن هذه التطورات قد جلبت قيمة لا يمكن إنكارها، إلا أنها كشفت أيضًا عن أسئلة معقدة حول الأخلاقيات، والآثار المترتبة على القوى العاملة، والتوزيع العادل لفوائد الذكاء الاصطناعي. ولا تزال معالجة هذه التحديات تمثل أولوية مع استمرار انتشار الذكاء الاصطناعي. </p>
<h2>تقنيات الذكاء الاصطناعي التي ستغير قواعد اللعبة في عام 2025</h2>
<p><img decoding="async" class="alignnone size-full wp-image-50801" src="https://meetcody.ai/wp-content/uploads/2025/03/The-2025-AI-Forecast-1.jpg" alt="التكنولوجيا الطبية: سرير التصوير بالرنين المغناطيسي" width="930" height="523" srcset="https://meetcody.ai/wp-content/uploads/2025/03/The-2025-AI-Forecast-1.jpg 930w, https://meetcody.ai/wp-content/uploads/2025/03/The-2025-AI-Forecast-1-300x169.jpg 300w, https://meetcody.ai/wp-content/uploads/2025/03/The-2025-AI-Forecast-1-768x432.jpg 768w" sizes="(max-width: 930px) 100vw, 930px" /></p>
<blockquote><p>في عام 2025، لا ينصب التركيز في عام 2025 على جعل الذكاء الاصطناعي أكثر ذكاءً فحسب، بل على جعله أكثر قدرة وقابلية للتطوير وأخلاقية. إليك ما سيشكل هذا المشهد: </p></blockquote>
<h3>1. الذكاء الاصطناعي العميل: ما وراء أتمتة المهام</h3>
<p>الذكاء الاصطناعي العميل ليس مجرد كلمة طنانة أخرى. يمكن لهذه الأنظمة اتخاذ القرارات والتكيف مع المواقف دون تدخل بشري يذكر. ماذا عن وجود ذكاء اصطناعي يدير جدولك الزمني أو يتعامل مع المشاريع أو حتى يولد أفكاراً إبداعية؟ الأمر أشبه بإضافة عضو فريق فائق الكفاءة لا ينام أبداً.   </p>
<ul>
<li>للشركات: فكّر في مديري المشاريع الافتراضيين الذين يتعاملون مع تدفقات العمل المعقدة.</li>
<li>للمبدعين: الأدوات التي تساعد في العصف الذهني للأفكار أو تحرير المحتوى إلى جانبك.</li>
</ul>
<p>كما تسلط وكالة موديز الضوء على أن الذكاء الاصطناعي العميل يستعد لأن يصبح قوة دافعة للإنتاجية والابتكار في مختلف القطاعات.</p>
<h3>2. ذكاء اصطناعي متعدد الوسائط: الذكاء الاصطناعي متعدد الوسائط: الشامل لكل شيء</h3>
<p>تجمع هذه التقنية بين النصوص والصور والصوت والصورة والفيديو في نظام واحد سلس. وهذا هو السبب في أن المساعدين الافتراضيين المستقبليين لن يفهموا ما تقوله فحسب، بل سيلتقطون نبرة صوتك وتعبيرات وجهك وحتى سياق محيطك. </p>
<p>إليك بعض الأمثلة على ذلك:</p>
<ul>
<li>الرعاية الصحية: يمكن للأنظمة متعددة الوسائط تحليل البيانات الطبية من مصادر متعددة لتوفير تشخيصات أسرع وأكثر دقة.</li>
<li>الحياة اليومية: تخيّل مساعداً يمكنه مساعدتك في التخطيط لرحلة من خلال تحليل المراجعات والصور ومقاطع الفيديو على الفور.</li>
</ul>
<p>تتوقع <a href="https://www.gartner.com/en/newsroom/press-releases/2024-09-09-gartner-predicts-40-percent-of-generative-ai-solutions-will-be-multimodal-by-2027#:~:text=Forty%20percent%20of%20generative%20AI,enabled%20offerings%20to%20be%20differentiated.">مؤسسة جارتنر</a> أنه بحلول عام 2027، ستكون 40% من حلول الذكاء الاصطناعي التوليدي متعددة الوسائط، مقارنة بـ 1% فقط في عام 2023.</p>
<h3>3. البيانات الاصطناعية: الحل الملائم للخصوصية</h3>
<p>تحتاج أنظمة الذكاء الاصطناعي إلى بيانات للتعلم، ولكن غالبًا ما تأتي بيانات العالم الحقيقي مصحوبة بمخاوف تتعلق بالخصوصية أو مشاكل في التوافر. أدخل البيانات الاصطناعية &#8211; مجموعات البيانات التي يتم إنشاؤها اصطناعيًا والتي تحاكي البيانات الحقيقية دون الكشف عن معلومات حساسة. </p>
<p>إليك كيف يمكن أن يحدث ذلك:</p>
<p>ابتكار قابل للتطوير: من تدريب المركبات ذاتية القيادة في بيئات المحاكاة إلى توليد بيانات طبية نادرة للأبحاث الصيدلانية.</p>
<p>ضرورات الحوكمة: يعمل المطورون بشكل متزايد على دمج الأنظمة الملائمة للتدقيق لضمان الشفافية والمساءلة والمواءمة مع المعايير التنظيمية.</p>
<p>تُعد البيانات الاصطناعية مكسباً للجميع، حيث تساعد المطورين على الابتكار بشكل أسرع مع احترام الخصوصية في الوقت نفسه.</p>
<h2>الصناعات التي يحولها الذكاء الاصطناعي في الوقت الحالي</h2>
<p>يُحدث الذكاء الاصطناعي بالفعل طفرة في هذه القطاعات الرئيسية:</p>
<table>
<colgroup>
<col>
<col></colgroup>
<tbody>
<tr>
<td colspan="1" rowspan="1">الصناعة</td>
<td colspan="1" rowspan="1">نسبة المشاركين في الاستطلاع الذين يستخدمون الذكاء الاصطناعي من الجيل الجديد بانتظام في أدوارهم التنظيمية<a href="https://ventionteams.com/solutions/ai/adoption-statistics" target="_blank" rel="noopener noreferrer nofollow">(المصدر</a>)</td>
</tr>
<tr>
<td colspan="1" rowspan="1">التسويق والمبيعات</td>
<td colspan="1" rowspan="1">14%</td>
</tr>
<tr>
<td colspan="1" rowspan="1">تطوير المنتجات و/أو الخدمات</td>
<td colspan="1" rowspan="1">13%</td>
</tr>
<tr>
<td colspan="1" rowspan="1">عمليات الخدمات</td>
<td colspan="1" rowspan="1">10%</td>
</tr>
<tr>
<td colspan="1" rowspan="1">إدارة المخاطر</td>
<td colspan="1" rowspan="1">4%</td>
</tr>
<tr>
<td colspan="1" rowspan="1">الاستراتيجية وتمويل الشركات</td>
<td colspan="1" rowspan="1">4%</td>
</tr>
<tr>
<td colspan="1" rowspan="1">الموارد البشرية</td>
<td colspan="1" rowspan="1">3%</td>
</tr>
<tr>
<td colspan="1" rowspan="1">إدارة سلسلة التوريد</td>
<td colspan="1" rowspan="1">3%</td>
</tr>
<tr>
<td colspan="1" rowspan="1">التصنيع</td>
<td colspan="1" rowspan="1">2%</td>
</tr>
</tbody>
</table>
<h3>الرعاية الصحية</h3>
<p>الذكاء الاصطناعي ينقذ الأرواح. من تحليل الصور الطبية إلى التوصية بعلاجات مخصصة، فهو يجعل الرعاية الصحية أكثر ذكاءً وسرعة وسهولة في الوصول إليها. تتفوق أدوات الكشف المبكر بالفعل على الطرق التقليدية، مما يساعد الأطباء على اكتشاف المشاكل قبل تفاقمها.  </p>
<h3>البيع بالتجزئة</h3>
<p>يعمل الذكاء الاصطناعي التوليدي على تمكين الحملات التسويقية شديدة التخصيص، بينما تعمل نماذج المخزون التنبؤية على تقليل الهدر من خلال مواءمة سلاسل التوريد بشكل أكثر دقة مع أنماط الطلب. ويحقق تجار التجزئة الذين يتبنون هذه التقنيات مكاسب كبيرة في الكفاءة التشغيلية. وفقًا لشركة ماكنزي، من المتوقع أن يحقق الذكاء الاصطناعي التوليدي قيمة اقتصادية تتراوح بين 240 مليار دولار و390 مليار دولار لتجار التجزئة.  </p>
<h3>التعليم</h3>
<p>بالإضافة إلى التعلم التكيفي، يعزز الذكاء الاصطناعي الآن منهجيات التدريس. على سبيل المثال، تساعد أدوات الذكاء الاصطناعي التوليدي المعلمين من خلال إنشاء مناهج دراسية مصممة خصيصًا ووسائل تعليمية تفاعلية، مما يخفف الأعباء الإدارية. </p>
<h3>النقل والخدمات اللوجستية</h3>
<p>لقد أتاح تكامل الذكاء الاصطناعي مع أنظمة إنترنت الأشياء رؤية لا مثيل لها في شبكات الخدمات اللوجستية، مما عزز تحسين المسارات وإدارة المخزون وتخفيف المخاطر لسلاسل التوريد العالمية.</p>
<h2>ماذا بعد؟ اتجاهات الذكاء الاصطناعي التي يجب مراقبتها في عام 2025 </h2>
<p>إذن، إلى أين يتجه الذكاء الاصطناعي؟ فيما يلي الاتجاهات الكبيرة التي تشكل المستقبل: </p>
<h3>1. نماذج الذكاء الاصطناعي ذاتية التحسين</h3>
<p>تبرز أنظمة الذكاء الاصطناعي التي تعمل على تحسين نفسها في الوقت الفعلي كاتجاه بالغ الأهمية. تستفيد هذه النماذج ذاتية التحسين من حلقات التعلم المستمر، مما يعزز الدقة والملاءمة مع الحد الأدنى من الإشراف البشري. تشمل حالات الاستخدام الكشف عن الاحتيال في الوقت الحقيقي والأمن السيبراني التكيفي.  </p>
<h3>2. الحدود الجديدة للبيانات التركيبية</h3>
<p>تتجاوز البيانات الاصطناعية التطبيقات التي تعتمد على الخصوصية إلى سيناريوهات أكثر تطوراً، مثل تدريب الذكاء الاصطناعي على الحالات الحادة ومحاكاة الأحداث النادرة أو الخطرة. تستثمر صناعات مثل القيادة الذاتية بكثافة في هذا المجال لنمذجة الحالات الحرجة على نطاق واسع. </p>
<h3>3. هياكل الذكاء الاصطناعي الخاصة بمجال محدد</h3>
<p>يفسح عصر الذكاء الاصطناعي المعمم الطريق أمام البنى المتخصصة في مجالات محددة. حيث يركز المطورون على ضبط النماذج بشكل دقيق لقطاعات محددة مثل التمويل ونمذجة المناخ والبحوث الجينية، مما يفتح مستويات جديدة من الدقة والكفاءة. </p>
<h3>4. الذكاء الاصطناعي المتطور على نطاق واسع</h3>
<p>يعالج الذكاء الاصطناعي المتطور البيانات محلياً على الجهاز بدلاً من الاعتماد على السحابة. تتطور قدراته في الوقت الحقيقي من التطبيقات المتخصصة إلى الاعتماد السائد. تستفيد الصناعات من حوسبة الحافة لنشر نماذج الذكاء الاصطناعي منخفضة الكمون في بيئات ذات اتصال محدود، من مرافق الرعاية الصحية عن بُعد إلى مصانع التصنيع الذكية.  </p>
<h3>5. النظم الإيكولوجية التعاونية للذكاء الاصطناعي</h3>
<p>أصبح الذكاء الاصطناعي أقل انعزالاً، مع وجود أنظمة بيئية تتيح إمكانية التشغيل البيني بين النماذج والمنصات المتنوعة. وهذا يعزز الحلول الأكثر قوة من خلال التعاون، لا سيما في بيئات أصحاب المصلحة المتعددين مثل الرعاية الصحية والتخطيط الحضري. </p>
<h2>التحديات المقبلة</h2>
<p><img loading="lazy" decoding="async" class="alignnone size-full wp-image-50810" src="https://meetcody.ai/wp-content/uploads/2025/03/The-2025-AI-Forecast-2.jpg" alt="الإدارة الرقمية للتخزين. الذكاء الاصطناعي للخدمات اللوجستية" width="930" height="523" srcset="https://meetcody.ai/wp-content/uploads/2025/03/The-2025-AI-Forecast-2.jpg 930w, https://meetcody.ai/wp-content/uploads/2025/03/The-2025-AI-Forecast-2-300x169.jpg 300w, https://meetcody.ai/wp-content/uploads/2025/03/The-2025-AI-Forecast-2-768x432.jpg 768w" sizes="auto, (max-width: 930px) 100vw, 930px" /></p>
<p>في حين أن مستقبل الذكاء الاصطناعي مشرق، إلا أنه لا يخلو من العقبات. إليك ما نحتاج إلى معالجته: </p>
<h3>اللوائح والأخلاقيات</h3>
<p>إن <a href="https://artificialintelligenceact.eu/">قانون الاتحاد الأوروبي للذكاء الاصطناعي</a> <a href="https://www.jonesday.com/en/insights/2024/10/california-enacts-ai-transparency-law-requiring-disclosures-for-ai-content#:~:text=The%20Background%3A%20On%20September%2019,or%20altered%22%20using%20generative%20artificial">وقوانين شفافية البيانات في كاليفورنيا</a> ليست سوى البداية. يجب أن يعمل المطورون وصانعو السياسات معاً لضمان استخدام الذكاء الاصطناعي بشكل مسؤول وأخلاقي. </p>
<h3>التحيز والإنصاف</h3>
<p>حتى مع تحسن قابلية تفسير النماذج، تظل مخاطر التحيز كبيرة. يجب على المطورين إعطاء الأولوية لمجموعات البيانات المتنوعة وعالية الجودة ودمج مقاييس الإنصاف في خطوط الأنابيب الخاصة بهم للتخفيف من العواقب غير المقصودة. </p>
<h3>الاستدامة</h3>
<p>يستهلك تدريب نماذج الذكاء الاصطناعي الضخمة <a href="https://www.vox.com/climate/2024/3/28/24111721/climate-ai-tech-energy-demand-rising">الكثير من الطاقة،</a> لذا فإن الابتكارات في مجال ضغط النماذج والأجهزة الموفرة للطاقة أمر بالغ الأهمية لمواءمة تطوير الذكاء الاصطناعي مع أهداف الاستدامة. </p>
<h2>استشراف المستقبل: كيف سيشكل الذكاء الاصطناعي المستقبل</h2>
<p>إن قدرة الذكاء الاصطناعي على إعادة تشكيل الصناعات ومعالجة التحديات العالمية هائلة. ولكن كيف سيؤثر ذلك بالضبط على مستقبلنا؟ إليك نظرة فاحصة:  </p>
<h3>تمكين التحديات العالمية</h3>
<p>تعمل الأدوات التي تعتمد على الذكاء الاصطناعي على تحليل أنماط المناخ، وتحسين مصادر الطاقة المتجددة، والتنبؤ بالكوارث الطبيعية بدقة أكبر. على سبيل المثال، يمكن لنماذج الذكاء الاصطناعي أن تساعد المزارعين على التكيف مع تغير المناخ من خلال التنبؤ بأنماط هطول الأمطار واقتراح دورات المحاصيل المثلى. </p>
<p>يعمل الذكاء الاصطناعي على إضفاء الطابع الديمقراطي على الوصول إلى الرعاية الصحية من خلال تمكين التشخيص عن بُعد والتوصيات العلاجية. في المناطق التي تعاني من نقص الخدمات، تعمل أدوات الذكاء الاصطناعي كمقدمي رعاية صحية افتراضيين، مما يسد الفجوة الناجمة عن نقص المهنيين الطبيين. </p>
<h3>تحويل العمل</h3>
<p>في حين أن الذكاء الاصطناعي سيؤدي إلى أتمتة المهام المتكررة، إلا أنه يخلق أيضاً طلباً على أدوار في أخلاقيات الذكاء الاصطناعي وتدريب النظام والتعاون بين الإنسان والذكاء الاصطناعي. لقد أصبح مكان العمل عبارة عن شراكة ديناميكية بين البشر والذكاء الاصطناعي، حيث تتكامل المهام التي تتطلب الحدس والتعاطف مع دقة الذكاء الاصطناعي وحجمه. </p>
<p>ستتطور الأدوار الوظيفية نحو تنسيق وإدارة وتدقيق أنظمة الذكاء الاصطناعي بدلاً من التنفيذ المباشر للمهام.</p>
<h3>التصدي للتهديدات الأمنية</h3>
<p>إن تطور الذكاء الاصطناعي ينطوي أيضاً على مخاطر. أصبحت الهجمات الإلكترونية المدعومة بالذكاء الاصطناعي وتقنيات التزييف العميق أكثر انتشارًا. ولمواجهة ذلك، تعمل نماذج التهديدات التنبؤية وأنظمة الاستجابة الذاتية بالفعل على تقليل أوقات الاستجابة للاختراقات من ساعات إلى ثوانٍ.  </p>
<h2>خاتمة هل أنت مستعد للمستقبل؟</h2>
<p>إن عام 2025 ليس مجرد عام آخر للذكاء الاصطناعي &#8211; بل هو نقطة تحول. فمع التطورات مثل الذكاء الاصطناعي الوكيل، والأنظمة متعددة الوسائط، والبيانات الاصطناعية التي تعيد تشكيل الصناعات، يقع العبء على رواد الأعمال والمطورين في مجال التكنولوجيا لتوجيه هذا المشهد المتطور بدقة وبصيرة. فالمستقبل لا يتعلق فقط بتبني الذكاء الاصطناعي؛ بل يتعلق بتشكيل مساره بشكل مسؤول.  </p>
<p>&nbsp;</p>
<p>The post <a href="https://meetcody.ai/ar/blog/%d8%aa%d9%88%d9%82%d8%b9%d8%a7%d8%aa-%d8%a7%d9%84%d8%b0%d9%83%d8%a7%d8%a1-%d8%a7%d9%84%d8%a7%d8%b5%d8%b7%d9%86%d8%a7%d8%b9%d9%8a-%d9%84%d8%b9%d8%a7%d9%85-2025-%d8%a7%d9%84%d8%a7%d8%aa%d8%ac%d8%a7/">توقعات الذكاء الاصطناعي لعام 2025: الاتجاهات الناشئة والتقنيات المتطورة والتحولات في الصناعة</a> appeared first on <a href="https://meetcody.ai/ar/">Cody - The AI Trained on Your Business</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>GPT-4.5 مقابل Claude 3.7 Sonnet: تعمق في تطورات الذكاء الاصطناعي</title>
		<link>https://meetcody.ai/ar/blog/gpt-4-5-%d9%85%d9%82%d8%a7%d8%a8%d9%84-claude-3-7-sonnet-%d8%aa%d8%b9%d9%85%d9%82-%d9%81%d9%8a-%d8%aa%d8%b7%d9%88%d8%b1%d8%a7%d8%aa-%d8%a7%d9%84%d8%b0%d9%83%d8%a7%d8%a1-%d8%a7%d9%84%d8%a7%d8%b5%d8%b7/</link>
		
		<dc:creator><![CDATA[Om Kamath]]></dc:creator>
		<pubDate>Sun, 02 Mar 2025 15:52:48 +0000</pubDate>
				<category><![CDATA[غير مصنف]]></category>
		<guid isPermaLink="false">https://meetcody.ai/blog/gpt-4-5-%d9%85%d9%82%d8%a7%d8%a8%d9%84-claude-3-7-sonnet-%d8%aa%d8%b9%d9%85%d9%82-%d9%81%d9%8a-%d8%aa%d8%b7%d9%88%d8%b1%d8%a7%d8%aa-%d8%a7%d9%84%d8%b0%d9%83%d8%a7%d8%a1-%d8%a7%d9%84%d8%a7%d8%b5%d8%b7/</guid>

					<description><![CDATA[<p>يشهد مشهد الذكاء الاصطناعي تطوراً سريعاً، مع بروز نموذجين حديثين: GPT-4.5 وكلود 3.7 سونيت. وتمثل هذه النماذج اللغوية المتقدمة قفزات كبيرة في قدرات الذكاء الاصطناعي، حيث يجلب كل منها نقاط قوة فريدة من نوعها. على الرغم من أن GPT-4.5 من OpenAI، رغم أنه تحديث طفيف، إلا أنه يتميز بتحسينات في الحد من الهلوسة وتعزيز المحادثة<a class="excerpt-read-more" href="https://meetcody.ai/ar/blog/gpt-4-5-%d9%85%d9%82%d8%a7%d8%a8%d9%84-claude-3-7-sonnet-%d8%aa%d8%b9%d9%85%d9%82-%d9%81%d9%8a-%d8%aa%d8%b7%d9%88%d8%b1%d8%a7%d8%aa-%d8%a7%d9%84%d8%b0%d9%83%d8%a7%d8%a1-%d8%a7%d9%84%d8%a7%d8%b5%d8%b7/" title="ReadGPT-4.5 مقابل Claude 3.7 Sonnet: تعمق في تطورات الذكاء الاصطناعي">... Read more &#187;</a></p>
<p>The post <a href="https://meetcody.ai/ar/blog/gpt-4-5-%d9%85%d9%82%d8%a7%d8%a8%d9%84-claude-3-7-sonnet-%d8%aa%d8%b9%d9%85%d9%82-%d9%81%d9%8a-%d8%aa%d8%b7%d9%88%d8%b1%d8%a7%d8%aa-%d8%a7%d9%84%d8%b0%d9%83%d8%a7%d8%a1-%d8%a7%d9%84%d8%a7%d8%b5%d8%b7/">GPT-4.5 مقابل Claude 3.7 Sonnet: تعمق في تطورات الذكاء الاصطناعي</a> appeared first on <a href="https://meetcody.ai/ar/">Cody - The AI Trained on Your Business</a>.</p>
]]></description>
										<content:encoded><![CDATA[<div class="mb-2 text-3xl font-bold">يشهد مشهد الذكاء الاصطناعي <a href="https://www.chatbase.co/blog/ai-trends" target="_blank" rel="noopener noreferrer">تطوراً سريعاً،</a> مع بروز نموذجين حديثين: GPT-4.5 وكلود 3.7 سونيت. وتمثل هذه النماذج اللغوية المتقدمة قفزات كبيرة في قدرات الذكاء الاصطناعي، حيث يجلب كل منها نقاط قوة فريدة من نوعها. </div>
<div class="prose mt-8 max-w-full">
<p>على الرغم من أن GPT-4.5 من OpenAI، رغم أنه تحديث طفيف، إلا أنه يتميز <a href="https://research.aimultiple.com/future-of-large-language-models/" target="_blank" rel="noopener noreferrer">بتحسينات</a> في الحد من الهلوسة وتعزيز المحادثة الطبيعية. من ناحية أخرى، حظي سونيت Claude 3.7 Sonnet من أنثروبيك بالاهتمام لقدراته الترميزية الاستثنائية وفعاليته من حيث التكلفة. يلبي كلا الطرازين احتياجات مجموعة واسعة من المستخدمين، من المطورين والباحثين إلى الشركات التي تبحث عن حلول الذكاء الاصطناعي المتطورة.  </p>
<p>نظرًا لأن هذه النماذج تدفع حدود ما هو ممكن في مجال الذكاء الاصطناعي، فإنها تعيد تشكيل التوقعات والتطبيقات في مختلف الصناعات، مما يمهد الطريق لمزيد من التطورات التحويلية في المستقبل القريب.</p>
<h2>الميزات الرئيسية لـ GPT-4.5 وClaude 3.7 Sonnet</h2>
<p>يُضفي كل من GPT-4.5 وClaude 3.7 Sonnet تطورات كبيرة على مشهد الذكاء الاصطناعي، ولكل منهما نقاط قوة فريدة. يركّز GPT-4.5، الذي يوصف بأنه &#8220;أكبر نماذج OpenAI وأكثرها معرفةً حتى الآن&#8221;، على توسيع نطاق التعلّم غير الخاضع للإشراف لتعزيز معرفة الكلمات والحدس مع الحد من الهلوسة. يتفوق هذا النموذج في تحسين قدرات التفكير وتعزيز تفاعلات الدردشة بفهم سياقي أعمق.  </p>
<p>من ناحية أخرى، يقدم Claude 3.7 Sonnet <a href="https://www.wired.com/story/anthropic-world-first-hybrid-reasoning-ai-model/" target="_blank" rel="noopener noreferrer">نموذجًا هجينًا رائدًا في التفكير المنطقي الهجين،</a> مما يسمح بالاستجابات السريعة والتفكير الممتد خطوة بخطوة. وهو يتألق بشكل خاص في البرمجة وتطوير الويب الأمامي، حيث يُظهر قدرات ممتازة في اتباع التعليمات والتفكير العام. </p>
<h3>التحسينات الرئيسية:</h3>
<ul class="tight" data-tight="true">
<li><strong>GPT-4.5</strong>: تعزيز التعلم غير الخاضع للإشراف وقدرات التخاطب</li>
<li><strong>كلود 3.7 سوناتة</strong> التفكير الهجين المتقدم وبراعة الترميز الفائقة</li>
<li><strong>كلا النموذجين</strong>: قدرات محسّنة متعددة الوسائط والتفكير التكيّفي</li>
</ul>
<h2>الأداء والتقييم</h2>
<table>
<colgroup>
<col>
<col>
<col></colgroup>
<tbody>
<tr>
<th colspan="1" rowspan="1">المهمة</th>
<th colspan="1" rowspan="1">GPT 4.5 (مقابل 4o)</th>
<th colspan="1" rowspan="1">كلود 3.7 سونيت 3.7* (مقابل 3.5)</th>
</tr>
<tr>
<td colspan="1" rowspan="1">الترميز</td>
<td colspan="1" rowspan="1">محسّن</td>
<td colspan="1" rowspan="1">يتفوق بشكل ملحوظ على</td>
</tr>
<tr>
<td colspan="1" rowspan="1">الرياضيات</td>
<td colspan="1" rowspan="1">تحسن متوسط</td>
<td colspan="1" rowspan="1">أفضل في مسائل AIME&#8217;24</td>
</tr>
<tr>
<td colspan="1" rowspan="1">المنطق</td>
<td colspan="1" rowspan="1">الأداء المماثل</td>
<td colspan="1" rowspan="1">أداء مماثل</td>
</tr>
<tr>
<td colspan="1" rowspan="1">متعدد الوسائط</td>
<td colspan="1" rowspan="1">أداء مماثل</td>
<td colspan="1" rowspan="1">أداء مماثل</td>
</tr>
</tbody>
</table>
<p><em>* بدون تفكير مطول</em></p>
<p>لقد أظهر GPT-4.5 تحسينات ملحوظة في تفاعلات الدردشة وتقليل الهلوسة. وقد قيّمه المختبِرون البشريون على أنه أكثر دقة وواقعية مقارنةً بالنماذج السابقة، مما يجعله شريكاً أكثر موثوقية في المحادثة. </p>
<p><img loading="lazy" decoding="async" class="aligncenter wp-image-50752 size-full" src="https://meetcody.ai/wp-content/uploads/2025/03/ad_4nxcu8pbfgpg50z3vayf8qz2j48w88v2dsz64zmx0ceoewmsmdljsogue_2jaraxulupovh-9fvfu1difqlvifvpo6pgnzcskmyexz8rg-bojgew1ws9hh0jxjm4rxwrnuuf_eqngjq.avif" alt="معايير GPT-4.5" width="1600" height="806"></p>
<p>من ناحية أخرى، يُظهر برنامج Claude 3.7 Sonnet كفاءة استثنائية في التطبيقات ومهام البرمجة في الوقت الفعلي. وقد حقق أداءً فائقًا في اختبار SWE-bench Verified و TAU-bench، مما يُظهر براعته في هندسة البرمجيات وحل المشكلات المعقدة. بالإضافة إلى ذلك، فإن إنتاجيته الأعلى مقارنةً بمعالج GPT-4.5 تجعله مناسبًا بشكل خاص للمهام التي تتطلب استجابات سريعة ومعالجة كميات كبيرة من البيانات.  </p>
<div id="attachment_50761" style="width: 1610px" class="wp-caption aligncenter"><img loading="lazy" decoding="async" aria-describedby="caption-attachment-50761" class="wp-image-50761 size-full" src="https://meetcody.ai/wp-content/uploads/2025/03/ad_4nxfwlui9hnxwa7m9pwxfamvld-pfnfd2qx4zwapkokerz698-so8gbeibusnnfj1viwjndt46kkam86tzmuzfiboqsnboa-xjwtam6kurrcs5uox4bvfbraqim0usgr8jxxpun57zg.avif" alt="كلود 3.7 معايير السوناتة القياسية" width="1600" height="1452" srcset="https://meetcody.ai/wp-content/uploads/2025/03/ad_4nxfwlui9hnxwa7m9pwxfamvld-pfnfd2qx4zwapkokerz698-so8gbeibusnnfj1viwjndt46kkam86tzmuzfiboqsnboa-xjwtam6kurrcs5uox4bvfbraqim0usgr8jxxpun57zg.avif 1600w, https://meetcody.ai/wp-content/uploads/2025/03/ad_4nxfwlui9hnxwa7m9pwxfamvld-pfnfd2qx4zwapkokerz698-so8gbeibusnnfj1viwjndt46kkam86tzmuzfiboqsnboa-xjwtam6kurrcs5uox4bvfbraqim0usgr8jxxpun57zg-300x272.avif 300w, https://meetcody.ai/wp-content/uploads/2025/03/ad_4nxfwlui9hnxwa7m9pwxfamvld-pfnfd2qx4zwapkokerz698-so8gbeibusnnfj1viwjndt46kkam86tzmuzfiboqsnboa-xjwtam6kurrcs5uox4bvfbraqim0usgr8jxxpun57zg-1024x929.avif 1024w, https://meetcody.ai/wp-content/uploads/2025/03/ad_4nxfwlui9hnxwa7m9pwxfamvld-pfnfd2qx4zwapkokerz698-so8gbeibusnnfj1viwjndt46kkam86tzmuzfiboqsnboa-xjwtam6kurrcs5uox4bvfbraqim0usgr8jxxpun57zg-768x697.avif 768w, https://meetcody.ai/wp-content/uploads/2025/03/ad_4nxfwlui9hnxwa7m9pwxfamvld-pfnfd2qx4zwapkokerz698-so8gbeibusnnfj1viwjndt46kkam86tzmuzfiboqsnboa-xjwtam6kurrcs5uox4bvfbraqim0usgr8jxxpun57zg-1536x1394.avif 1536w, https://meetcody.ai/wp-content/uploads/2025/03/ad_4nxfwlui9hnxwa7m9pwxfamvld-pfnfd2qx4zwapkokerz698-so8gbeibusnnfj1viwjndt46kkam86tzmuzfiboqsnboa-xjwtam6kurrcs5uox4bvfbraqim0usgr8jxxpun57zg-714x648.avif 714w" sizes="auto, (max-width: 1600px) 100vw, 1600px" /><p id="caption-attachment-50761" class="wp-caption-text">المصدر: أنثروبيك</p></div>
<h2>التسعير وإمكانية الوصول</h2>
<p>على الرغم من أن GPT-4.5، على الرغم من أنه يتميز بقدرات مذهلة، إلا أنه يأتي بسعر باهظ. فقد ارتفع سعره 75 مرة عن سابقه، GPT-4، دون مبرر واضح لهذه الزيادة الكبيرة. قد تحد استراتيجية التسعير هذه من إمكانية الوصول إلى العديد من المستخدمين المحتملين.  </p>
<p>في المقابل، تقدم Claude 3.7 Sonnet خياراً أكثر توفيراً. هيكل أسعاره أكثر تنافسية بشكل ملحوظ: </p>
<ol class="tight" data-tight="true">
<li>25 مرة أرخص 25 مرة لرموز الإدخال مقارنة بـ GPT-4.5</li>
<li>أرخص بـ 10 أضعاف رموز الإخراج</li>
<li>التسعير المحدد: 3 دولارات لكل مليون توكن إدخال و15 دولارًا لكل مليون توكن إخراج</li>
</ol>
<p>فيما يتعلق بالتوافر، يمكن الوصول إلى GPT-4.5 حاليًا لمستخدمي GPT Pro والمطورين عبر واجهة برمجة التطبيقات، مع وجود خطط لتوسيع نطاق الوصول إلى مستخدمي Plus والمؤسسات التعليمية والفرق. ومع ذلك، يوفر Claude 3.7 Sonnet إمكانية وصول أوسع عبر جميع خطط كلود (مجاني، محترف، فريق، مؤسسة)، وكذلك من خلال واجهة برمجة التطبيقات الأنثروبولوجية، وAmazon Bedrock، وVertex AI من Google Cloud. </p>
<p>وتؤثر هذه الاختلافات في التسعير وإمكانية الوصول بشكل كبير على إمكانية اعتماد كل نموذج وحالات استخدامه المحتملة، حيث من المحتمل أن يكون Claude 3.7 Sonnet جذابًا لمجموعة أكبر من المستخدمين نظرًا لفعاليته من حيث التكلفة وتوافره على نطاق أوسع.</p>
<h2>حالات الاستخدام</h2>
<p>يُقدِّم كل من GPT-4.5 وClaude 3.7 Sonnet قدرات فريدة من نوعها تلبي احتياجات <a href="https://aloa.co/blog/large-language-model-applications" target="_blank" rel="noopener noreferrer">التطبيقات</a> الواقعية المتنوعة. يتفوق GPT-4.5 <a href="https://meetcody.ai/use-cases/factual-research-assistant/">كشريك تخاطبي</a> متقدم، متفوقاً على النماذج السابقة في الدقة وتقليل الهلوسة. كما أن فهمه السياقي المحسّن يجعله مثالياً لخدمة العملاء وإنشاء المحتوى وتجارب التعلُّم الشخصية.  </p>
<p>من ناحية أخرى، يتألق Claude 3.7 Sonnet في مجال الترميز وتطوير البرمجيات. حيث تعمل إمكانات الترميز العملي، التي تظهر من خلال <a href="https://docs.anthropic.com/en/docs/agents-and-tools/claude-code/overview" target="_blank" rel="noopener noreferrer">Claude Code،</a> على أتمتة مهام مثل البحث عن التعليمات البرمجية وتشغيل الاختبارات واستخدام أدوات سطر الأوامر. وهذا يجعلها ميزة لا تقدر بثمن للشركات التي تتطلع إلى تبسيط عمليات التطوير الخاصة بها.  </p>
<h2>الآفاق المستقبلية والخلاصة</h2>
<p>يمثل إصدار GPT-4.5 GPT-4.5 وClaude 3.7 Sonnet علامة فارقة في تطوير الذكاء الاصطناعي، مما يمهد الطريق لمزيد من التطورات الرائدة. في حين يُنظر إلى GPT-4.5 على أنه تحديث بسيط، إلا أنه يضع الأساس لنماذج مستقبلية ذات قدرات استدلالية محسّنة. يمثل كلود 3.7 سونيت، بنموذج الاستدلال الهجين الخاص به، تحولاً ديناميكيًا في مشهد الذكاء الاصطناعي، مما قد يؤثر على اتجاه التطورات المستقبلية.  </p>
<p>ومع استمرار تطور هذه النماذج، يمكننا أن نتوقع المزيد من التحسينات في التعلم غير الخاضع للإشراف، وقدرات الاستدلال، والتحسينات الخاصة بالمهام. تشير الطبيعة التكميلية للتعلم غير الخاضع للإشراف والاستدلال إلى أن نماذج الذكاء الاصطناعي المستقبلية ستُظهر على الأرجح قدرات أكثر تطوراً في حل المشكلات. </p>
</div>
<p>The post <a href="https://meetcody.ai/ar/blog/gpt-4-5-%d9%85%d9%82%d8%a7%d8%a8%d9%84-claude-3-7-sonnet-%d8%aa%d8%b9%d9%85%d9%82-%d9%81%d9%8a-%d8%aa%d8%b7%d9%88%d8%b1%d8%a7%d8%aa-%d8%a7%d9%84%d8%b0%d9%83%d8%a7%d8%a1-%d8%a7%d9%84%d8%a7%d8%b5%d8%b7/">GPT-4.5 مقابل Claude 3.7 Sonnet: تعمق في تطورات الذكاء الاصطناعي</a> appeared first on <a href="https://meetcody.ai/ar/">Cody - The AI Trained on Your Business</a>.</p>
]]></content:encoded>
					
		
		
			</item>
	</channel>
</rss>
