أفاد ممثلو Google بأن إنشاء محتوى "صغير الحجم" خصيصًا لنماذج اللغة الكبيرة (LLMs) مثل Gemini لن يحسن ترتيب محرك البحث. في حلقة حديثة من بودكاست Google بعنوان "Search Off the Record"، تناول John Mueller و Danny Sullivan ممارسة تحسين محركات البحث (SEO) الشائعة بشكل متزايد المتمثلة في تقسيم المحتوى، حيث تقوم مواقع الويب بتقسيم المعلومات إلى فقرات وأقسام أصغر، غالبًا مع العديد من العناوين الفرعية المنسقة كأسئلة.
الهدف من تقسيم المحتوى هو تسهيل استيعاب المعلومات والاستشهاد بها بواسطة روبوتات الذكاء الاصطناعي التوليدية، مما يعزز بشكل نظري رؤية البحث. غالبًا ما تعرض مواقع الويب التي تستخدم هذه التقنية فقرات قصيرة، تتكون أحيانًا من جملة أو جملتين فقط، مصممة لتلبية احتياجات خوارزميات الذكاء الاصطناعي. ومع ذلك، أوضح Sullivan أن خوارزميات البحث في Google لا تستخدم هذه الإشارات لتحسين الترتيب. وقال Sullivan: "أحد الأشياء التي أراها مرارًا وتكرارًا في بعض نصائح تحسين محركات البحث هو أنه يجب عليك تقسيم الأشياء إلى أجزاء صغيرة حقًا". "وهذا ليس شيئًا ننظر إليه."
أصبح تحسين محركات البحث (SEO) صناعة مهمة، حيث تسعى الشركات باستمرار إلى طرق لتحسين رؤية موقعها على الويب في نتائج البحث. في حين أن بعض ممارسات تحسين محركات البحث مشروعة ومفيدة، إلا أن العديد من الممارسات الأخرى تستند إلى التكهنات والنظريات غير المثبتة. أدى ظهور نماذج اللغة الكبيرة (LLMs) إلى استراتيجيات جديدة لتحسين محركات البحث تهدف إلى تحسين المحتوى لاستهلاك الذكاء الاصطناعي، لكن بيان Google يشير إلى أن هذه الاستراتيجيات قد تكون مضللة.
المغزى من موقف Google هو أنه يجب على منشئي المحتوى إعطاء الأولوية لإنشاء محتوى شامل ومنظم بشكل جيد للقراء من البشر، بدلاً من محاولة التلاعب بالنظام عن طريق إنشاء محتوى مجزأ للذكاء الاصطناعي. يتماشى هذا مع تركيز Google الدائم على تزويد المستخدمين بنتائج بحث عالية الجودة وذات صلة. يسلط هذا التطور الضوء على التوتر المستمر بين تحسين المحتوى للخوارزميات وإنشاء محتوى قيم للمستخدمين من البشر. مع استمرار تطور نماذج اللغة الكبيرة (LLMs) ولعب دور أكبر في استرجاع المعلومات، فمن المرجح أن يستمر الجدل حول أفضل طريقة لتحسين المحتوى لكل من الذكاء الاصطناعي والبشر.
Discussion
Join the conversation
Be the first to comment