الذكاء الاصطناعي هو عالم عميق ومعقد. غالبًا ما يعتمد العلماء الذين يعملون في هذا المجال على المصطلحات واللجنة لشرح ما يعملون عليه. نتيجة لذلك ، يتعين علينا في كثير من الأحيان استخدام هذه المصطلحات التقنية في تغطيتنا لصناعة الذكاء الاصطناعي. لهذا السبب اعتقدنا أنه سيكون من المفيد تجميع مسرد مع تعريفات لبعض من أهم الكلمات والعبارات التي نستخدمها في مقالاتنا.
سنقوم بتحديث هذا المسرد بانتظام لإضافة إدخالات جديدة حيث يكشف الباحثون باستمرار عن طرق جديدة لدفع حدود الذكاء الاصطناعي مع تحديد مخاطر السلامة الناشئة.
يشير وكيل الذكاء الاصطناعى إلى أداة تستخدم تقنيات الذكاء الاصطناعى لأداء سلسلة من المهام نيابة عنك – أبعد من ما يمكن أن يفعله chatbot من الذكاء الاصطناعي – مثل نفقات الإيداع أو حجز تذاكر أو طاولة في مطعم أو حتى الكتابة والحفاظ على الرمز. ومع ذلك ، كما أوضحنا من قبل ، هناك الكثير من القطع المتحركة في هذه المساحة الناشئة ، لذلك يمكن للأشخاص المختلفين أن يعني أشياء مختلفة عندما يشيرون إلى وكيل الذكاء الاصطناعي. لا تزال البنية التحتية يتم بناؤها أيضًا لتقديم القدرات المتصورة. لكن المفهوم الأساسي ينطوي على نظام مستقل قد يعتمد على أنظمة AI المتعددة لتنفيذ مهام متعددة الخطوات.
بالنظر إلى سؤال بسيط ، يمكن للدماغ البشري أن يجيب دون أن يفكر كثيرًا حوله – أشياء مثل “أي حيوان أطول بين الزرافة والقط؟” ولكن في كثير من الحالات ، غالبًا ما تحتاج إلى قلم وورقة للتوصل إلى الإجابة الصحيحة لأن هناك خطوات وسيطة. على سبيل المثال ، إذا كان لدى أحد المزارعين الدجاج والأبقار ، ولديه 40 رأسًا و 120 ساقًا ، فقد تحتاج إلى كتابة معادلة بسيطة للتوصل إلى الإجابة (20 دجاجة و 20 بقرة).
في سياق الذكاء الاصطناعي ، يعني التفكير في سلسلة الأفكار لنماذج اللغة الكبيرة تقسيم مشكلة إلى خطوات أصغر ومتوسطة لتحسين جودة النتيجة النهائية. عادة ما يستغرق الأمر وقتًا أطول للحصول على إجابة ، ولكن من المرجح أن تكون الإجابة على حق ، خاصة في سياق المنطق أو الترميز. يتم تطوير نماذج التفكير المزعومة من نماذج اللغة الكبيرة التقليدية ومُحسّنة للتفكير المذهل بفضل تعلم التعزيز.
(انظر: نموذج لغة كبير)
مجموعة فرعية من التعلم الآلي الذي يوفر ذاتيًا والتي تم تصميم خوارزميات الذكاء الاصطناعى بهيكل الشبكة العصبية الاصطناعية متعددة الطبقات (ANN). يتيح لهم ذلك إجراء ارتباطات أكثر تعقيدًا مقارنةً بالأنظمة القائمة على التعلم الآلي الأبسط ، مثل النماذج الخطية أو أشجار القرار. يستلهم هيكل خوارزميات التعلم العميق الإلهام من المسارات المترابطة للخلايا العصبية في الدماغ البشري.
AIS التعلم العميق قادرة على تحديد الخصائص المهمة في البيانات نفسها ، بدلاً من مطالبة المهندسين البشر بتحديد هذه الميزات. يدعم الهيكل أيضًا الخوارزميات التي يمكن أن تتعلم من الأخطاء ، ومن خلال عملية التكرار والتعديل ، تحسين مخرجاتها الخاصة. ومع ذلك ، تتطلب أنظمة التعلم العميق الكثير من نقاط البيانات لتحقيق نتائج جيدة (الملايين أو أكثر). عادةً ما يستغرق الأمر وقتًا أطول لتدريب خوارزميات التعلم الآلي الأبسط مقابل خوارزميات التعلم الآلي – لذلك تميل تكاليف التطوير إلى أن تكون أعلى.
(انظر: الشبكة العصبية)
هذا يعني مزيد من التدريب لنموذج الذكاء الاصطناعى يهدف إلى تحسين الأداء لمهمة أو منطقة أكثر تحديدًا مما كان سابقًا نقطة محورية في تدريبه-عادةً من خلال التغذية في بيانات جديدة متخصصة (IE الموجهة إلى المهمة).
تأخذ العديد من الشركات الناشئة من الذكاء الاصطناعى نماذج لغوية كبيرة كنقطة انطلاق لبناء منتج تجاري ، ولكنها تتنافس على رفع الأداة المساعدة للقطاع المستهدف أو المهمة من خلال استكمال دورات التدريب السابقة مع التثبيت الدقيق بناءً على معرفتها وخبرتها الخاصة بالمجال.
(انظر: نموذج لغة كبير (LLM))
نماذج اللغة الكبيرة ، أو LLMs ، هي نماذج الذكاء الاصطناعى التي يستخدمها مساعدو الذكاء الاصطناعى الشهيرة ، مثل ChatGpt أو Claude أو Google’s Gemini أو Meta’s Ai Llama أو Microsoft Copilot أو Mistral’s Le Chat. عندما تقوم بالدردشة مع مساعد AI ، تتفاعل مع نموذج لغة كبير يعالج طلبك مباشرة أو بمساعدة الأدوات المتاحة المختلفة ، مثل تصفح الويب أو المترجمين المترجمين الرمز.
يمكن أن يكون للمساعدين AI و LLMs أسماء مختلفة. على سبيل المثال ، GPT هو نموذج اللغة الكبير في Openai و chatgpt هو المنتج المساعد لمنظمة العفو الدولية.
LLMs هي شبكات عصبية عميقة مصنوعة من مليارات من المعلمات العددية (أو الأوزان ، انظر أدناه) التي تتعلم العلاقات بين الكلمات والعبارات وإنشاء تمثيل للغة ، وهو نوع من خريطة الكلمات متعددة الأبعاد.
يتم إنشاء تلك من ترميز الأنماط التي يجدونها في مليارات الكتب والمقالات والنسخ. عندما تطالب بـ LLM ، يولد النموذج النمط الأكثر ترجيحًا الذي يناسب المطالبة. ثم يقوم بتقييم الكلمة التالية الأكثر احتمالا بعد آخر الكلمة بناءً على ما قيل من قبل. كرر ، كرر ، وكرر.
(انظر: الشبكة العصبية)
تشير الشبكة العصبية إلى بنية الخوارزمية متعددة الطبقات التي تدعم التعلم العميق-وعلى نطاق أوسع ، الازدهار الكامل في أدوات الذكاء الاصطناعى التوليدي بعد ظهور نماذج اللغة الكبيرة.
على الرغم من أن فكرة الاستهلاك من مسارات الدماغ البشري المترابطة بشكل كثيف كهيكل تصميم لخوارزميات معالجة البيانات يعودان إلى الأربعينيات من القرن الماضي ، إلا أنه كان الصعود الأكثر حداثة لأجهزة المعالجة الرسومية (GPU) – عبر صناعة ألعاب الفيديو – التي أزلت حقًا قوة النظرية. أثبتت هذه الرقائق أنها مناسبة تمامًا لخوارزميات التدريب مع العديد من الطبقات أكثر مما كانت ممكنة في الحقبة السابقة-تمكين أنظمة الذكاء الاصطناعي القائمة على الشبكة العصبية من تحقيق أداء أفضل بكثير عبر العديد من المجالات ، سواء للاعتراف الصوتي أو التنقل المستقل أو اكتشاف المخدرات.
(انظر: نموذج لغة كبير (LLM))
الأوزان جوهرية لتدريب الذكاء الاصطناعي لأنها تحدد مقدار الأهمية (أو الوزن) لميزات مختلفة (أو متغيرات الإدخال) في البيانات المستخدمة لتدريب النظام – وبالتالي تشكيل ناتج نموذج الذكاء الاصطناعي.
بعبارة أخرى ، الأوزان هي معلمات رقمية تحدد ما هو أكثر بروزًا في مجموعة بيانات لمهمة التدريب المحددة. أنها تحقق وظيفتها من خلال تطبيق الضرب على المدخلات. يبدأ التدريب النموذجي عادةً بالأوزان التي يتم تعيينها بشكل عشوائي ، ولكن مع تطور العملية ، تتكشف الأوزان حيث يسعى النموذج إلى الوصول إلى الناتج الذي يطابق الهدف بشكل أوثق.
على سبيل المثال ، يمكن أن يشمل نموذج الذكاء الاصطناعي للتنبؤ بأسعار المنازل التي يتم تدريبها على بيانات العقارات التاريخية للموقع المستهدف أوزان لميزات مثل عدد غرف النوم والحمامات ، سواء كانت عقار منفصل وشبه منفصل ، إذا كان لديه أو لم يكن لديه موقف للسيارات ، وما إلى ذلك.
في نهاية المطاف ، فإن الأوزان التي يعلقها النموذج على كل من هذه المدخلات هي انعكاس لمدى تأثيرها على قيمة الخاصية ، بناءً على مجموعة البيانات المحددة.
Source link
اكتشاف المزيد من مؤسسة اشراق العالم لتقنية المعلومات-خدمات مواقع ومتاجر الإنترنت
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.