मंगलवार को हुई घोषणा के अनुसार, Apple ने Anthropic के Claude Agent और OpenAI के Codex को सीधे Xcode 26.3 में एकीकृत किया है, जो "एजेंटिक कोडिंग" में एक महत्वपूर्ण कदम है। VentureBeat ने बताया कि इस अपडेट से AI सिस्टम स्वायत्त रूप से कोड लिख सकते हैं, प्रोजेक्ट बना सकते हैं, परीक्षण चला सकते हैं और न्यूनतम मानवीय देखरेख के साथ अपने काम को दृश्य रूप से सत्यापित कर सकते हैं।
यह कदम AI-सहायता प्राप्त सॉफ़्टवेयर विकास को Apple के आक्रामक रूप से अपनाने का संकेत देता है, जो कृत्रिम बुद्धिमत्ता एजेंटों को ऐप-निर्माण प्रक्रिया पर अभूतपूर्व नियंत्रण देता है। Xcode 26.3 तुरंत एक रिलीज़ उम्मीदवार के रूप में उपलब्ध है।
इस बीच, Alibaba की AI शोधकर्ताओं की Qwen टीम ने Qwen3-Coder-Next जारी किया है, जो एक विशेष 80-बिलियन-पैरामीटर मॉडल है जिसे हल्के सक्रिय पदचिह्न के भीतर अभिजात वर्ग एजेंटिक प्रदर्शन के लिए डिज़ाइन किया गया है, VentureBeat ने उल्लेख किया। मॉडल को एक अनुमेय Apache 2.0 लाइसेंस पर जारी किया गया था, जो वाणिज्यिक उपयोग को सक्षम करता है। Qwen टीम ओपन सोर्स AI विकास में एक वैश्विक नेता के रूप में उभरी है, जो शक्तिशाली बड़े भाषा मॉडल और विशेष मल्टीमॉडल मॉडल जारी कर रही है।
Claude Code के जारी होने से पहले, Vercel ने 2024 में अपनी v0 सेवा के साथ "वाइब कोडिंग" क्षेत्र में प्रवेश कर लिया था, VentureBeat के अनुसार। मूल v0 का उद्देश्य डेवलपर्स को एक उपयोगकर्ता इंटरफ़ेस मचान के लिए प्रेरित करके खाली कैनवास की समस्या को हल करने में मदद करना था। जबकि 4 मिलियन से अधिक लोगों ने लाखों प्रोटोटाइप बनाने के लिए v0 का उपयोग किया है, प्लेटफ़ॉर्म में उत्पादन में आने के लिए आवश्यक तत्वों की कमी थी, जिसके लिए पुनर्लेखन की आवश्यकता थी। Vercel ने AI-जनित कोड को केवल प्रोटोटाइप के बजाय मौजूदा उत्पादन अवसंरचना से जोड़ने की चुनौती से निपटने के लिए v0 का पुनर्निर्माण किया।
Ars Technica के अनुसार, "वाइब कोडिंग" के उदय ने AI-सहायता प्राप्त कोडिंग टूल में विकास की होड़ को जन्म दिया है। यह शब्द उपयोगकर्ता संकेतों या विवरणों के आधार पर कोड उत्पन्न करने के लिए AI के उपयोग को संदर्भित करता है।
कोडिंग में AI के एकीकरण से परिणामी कोड की विश्वसनीयता और सत्यापन के बारे में सवाल उठते हैं। जैसा कि Hacker News पर उल्लेख किया गया है, लोग पूर्णता की उम्मीद करते हैं, लेकिन वास्तविक दुनिया की प्रणाली का सत्यापन कभी भी समाप्त नहीं होता है। पोस्ट में आगे कहा गया है, "हम शायद ही कभी वास्तविकता का 100% कैप्चर कर पाते हैं, इसलिए विफलता संभव बनी रहती है।" विशुद्ध रूप से गणितीय प्रमाणों में भी त्रुटियां हो सकती हैं, और प्रमाण सहायकों में बग हो सकते हैं।
Discussion
AI Experts & Community
Be the first to comment