هوس ‘التوكنز’: هل يخدع الذكاء الاصطناعي مديري الهندسة البرمجية بشأن الإنتاجية؟

هوس ‘التوكنز’: هل يخدع الذكاء الاصطناعي مديري الهندسة البرمجية بشأن الإنتاجية؟

أبرز النقاط:

  • ظهور مصطلح "Tokenmaxxing" كمعيار وهمي جديد للإنتاجية بين المطورين في وادي السيليكون.
  • دراسات تشير إلى أن مستخدمي الذكاء الاصطناعي لديهم معدل "تعديل أكواد" (Code Churn) أعلى بنسبة 9.4 مرات من غيرهم.
  • منصة Faros AI ترصد زيادة هائلة بنسبة 861% في حذف وإعادة كتابة الأكواد مع تبني أدوات الذكاء الاصطناعي.
  • شركة Atlassian استحوذت على DX مقابل مليار دولار لفهم العائد على الاستثمار في أدوات البرمجة الذكية.
  • المهندسون يحققون ضعف الإنتاجية ولكن بعشرة أضعاف تكلفة "التوكنز"، مما يعزز الكم على حساب القيمة.

وهم الإنتاجية الكمية في عصر الذكاء الاصطناعي

لطالما كان قياس إنتاجية المهندسين البرمجيين محل جدل واسع، بدءاً من عدد أسطر الكود وصولاً إلى المعايير الحديثة. ومع ظهور جيل جديد من وكلاء الذكاء الاصطناعي (AI Coding Agents)، برز توجه جديد يُعرف بـ "Tokenmaxxing"، حيث يتفاخر المطورون بحجم استهلاكهم لقدرات المعالجة (Tokens) كدليل على العمل الجاد. ومع ذلك، فإن قياس المدخلات بدلاً من المخرجات النهائية يمثل فخاً استراتيجياً للشركات الناشئة التي تسعى لتحقيق الكفاءة.

تُظهر البيانات القادمة من شركات تحليل إنتاجية المطورين مثل Waydev وGitClear أن الأدوات مثل Claude Code وCursor تزيد بالفعل من سرعة إنتاج الأكواد المقبولة مبدئياً، لكنها تفرض ضريبة خفية تتمثل في الحاجة المستمرة لمراجعة وتعديل تلك الأكواد في الأسابيع التالية.

معضلة "تعديل الأكواد" (Code Churn)

يشير مديرو الهندسة إلى أن معدلات قبول الأكواد المولدة بالذكاء الاصطناعي تتراوح بين 80% و90% في اللحظة الأولى، لكن الواقع العملي يكشف عن صورة مغايرة. فبسبب الحاجة لإعادة الصياغة والتصحيح اللاحق، تنخفض نسبة القبول الحقيقية والمستدامة لتتراوح بين 10% و30% فقط.

أصدرت GitClear تقريراً في يناير الماضي يوضح أن المستخدمين الدائمين للذكاء الاصطناعي سجلوا معدل "تعديل أكواد" (وهو الفرق بين الأسطر المحذوفة والمضافة) أعلى بـ 9.4 مرات مقارنة بزملائهم الذين لا يستخدمون هذه الأدوات. هذا الرقم يتجاوز ضعف مكاسب الإنتاجية التي توفرها تلك الأدوات أصلاً، مما يعني أن المطورين يقضون وقتاً أطول في إصلاح ما أنتجه الذكاء الاصطناعي.

استثمارات ضخمة لفهم العائد على الاستثمار (ROI)

تدرك الشركات الكبرى هذه الفجوة بين الكمية والجودة؛ ففي العام الماضي، استحوذت شركة Atlassian على الشركة الناشئة DX المتخصصة في ذكاء الهندسة البرمجية مقابل مليار دولار. الهدف من هذه الصفقة هو تمويل أدوات تساعد العملاء على فهم العائد الحقيقي على الاستثمار في وكلاء البرمجة، بعيداً عن ضجيج الأرقام الأولية.

من جانبها، قامت شركة Waydev بإعادة هيكلة منصتها بالكامل لمواكبة انتشار أدوات البرمجة السريعة، حيث أطلقت أدوات تتبع البيانات الوصفية (Metadata) التي يولدها وكلاء الذكاء الاصطناعي لتقديم تحليل دقيق حول جودة وتكلفة الكود المنتج.

فجوة التكلفة مقابل القيمة

أظهرت بيانات من منصة Jellyfish، التي شملت 7,548 مهندساً في الربع الأول من عام 2026، نتائج مثيرة للقلق. المطورون الذين يمتلكون أكبر ميزانيات "توكنز" أنتجوا أكبر عدد من طلبات السحب (Pull Requests)، لكن تحسن الإنتاجية لم يكن متناسباً مع الإنفاق. لقد حققوا ضعف الإنتاجية (Throughput) ولكن بتكلفة بلغت عشرة أضعاف من التوكنز. بعبارة أخرى، هذه الأدوات تولد "حجماً" (Volume) وليس "قيمة" (Value).

التحديات التقنية والديون الفنية

تبرز هذه الإحصائيات بشكل أوضح عند الحديث مع المطورين، الذين يجدون أن مراجعة الأكواد والديون الفنية (Technical Debt) تتراكم بشكل متسارع. ويلاحظ وجود فرق شاسع بين المهندسين الكبار والمبتدئين؛ حيث يميل المبتدئون لقبول كميات أكبر من أكواد الذكاء الاصطناعي دون تمحيص كافٍ، مما يضطرهم لاحقاً للقيام بعمليات إعادة كتابة واسعة النطاق.

رغم هذه التحديات، لا يبدو أن المطورين في طريقهم للتخلي عن هذه الأدوات، بل إن السوق يتجه الآن نحو جيل جديد من منصات التحليل التي تهدف إلى تحويل "هوس التوكنز" إلى كفاءة برمجية حقيقية ومستدامة.


المصدر: TechCrunch

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *