Sundar Pichai onstage at Google IO
هوش مصنوعی

گوگل ابزارهای هوش مصنوعی Stitch و Jules را معرفی کرد

گوگل در کنفرانس Google I/O 2025، ابزارهای جدید مبتنی بر هوش مصنوعی خود به نام‌های Stitch برای طراحی UI اپلیکیشن‌ها و Jules برای کمک به توسعه‌دهندگان در رفع باگ را رونمایی کرد.

۱۴۰۴/۰۲/۳۰

در Google I/O 2025، گوگل Stitch، ابزار هوش مصنوعی برای طراحی فرانت‌اند اپلیکیشن با تولید UI و کد، و Jules، عامل هوش مصنوعی برای کمک به رفع باگ و وظایف توسعه‌دهندگان را عرضه کرد. Stitch به زودی قابلیت‌های جدیدی دریافت خواهد کرد و Jules اکنون در بتای عمومی است.

در کنفرانس توسعه‌دهندگان Google I/O 2025، گوگل از ابزار هوش مصنوعی جدیدی به نام Stitch رونمایی کرد که برای کمک به طراحی فرانت‌اند (frontend) اپلیکیشن‌های وب و موبایل با تولید المان‌های لازم رابط کاربری (UI) و کد مرتبط با آن طراحی شده است.

می‌توان با استفاده از چند کلمه یا حتی یک تصویر به Stitch دستور داد تا رابط کاربری اپلیکیشن را ایجاد کند. این ابزار مارک‌آپ (markup) HTML و CSS را برای طرح‌هایی که تولید می‌کند، ارائه می‌دهد. کاربران می‌توانند برای قدرت بخشیدن به ایده‌پردازی کد و رابط کاربری توسط Stitch، بین مدل‌های هوش مصنوعی Gemini 2.5 Pro و Gemini 2.5 Flash گوگل انتخاب کنند.

عرضه Stitch در زمانی اتفاق می‌افتد که آنچه «کدنویسی حسی» (vibe coding) – برنامه‌نویسی با استفاده از مدل‌های هوش مصنوعی تولیدکننده کد – نامیده می‌شود، همچنان در حال افزایش محبوبیت است. تعدادی از استارتاپ‌های بزرگ حوزه فناوری مانند Anysphere (سازنده ابزار Cursor)، Cognition و Windsurf در حال فعالیت در این بازار نوظهور هستند. فقط هفته گذشته، OpenAI سرویس کدنویسی کمکی جدیدی به نام Codex را عرضه کرد و مایکروسافت نیز روز قبل در جریان کنفرانس Build 2025 خود، مجموعه‌ای از به‌روزرسانی‌ها را برای دستیار کدنویسی GitHub Copilot معرفی کرد.

Stitch در مقایسه با برخی دیگر از محصولات «کدنویسی حسی» در قابلیت‌های خود کمی محدودتر است، اما گزینه‌های شخصی‌سازی قابل توجهی دارد. این ابزار از خروجی مستقیم به Figma پشتیبانی می‌کند و می‌تواند کد را نمایش دهد تا بتوان آن را در یک محیط توسعه یکپارچه (IDE) پالایش و استفاده کرد. Stitch همچنین به کاربران اجازه می‌دهد هر یک از المان‌های طراحی اپلیکیشن که تولید می‌کند را تنظیم دقیق کنند.

در یک نسخه نمایشی برای TechCrunch، کتی کوروِک (Kathy Korevec)، مدیر محصول گوگل، دو پروژه ایجاد شده با استفاده از Stitch را نشان داد: یک طراحی UI واکنش‌گرا (responsive) برای اپلیکیشن موبایل مخصوص کتاب‌خوان‌ها و یک داشبورد وب برای زنبورداری.

کوروِک در این باره گفت: «[Stitch] جایی است که می‌توانید بیایید و اولین نسخه تکراری کار خود را انجام دهید و سپس از آنجا ادامه دهید. آنچه ما می‌خواهیم انجام دهیم این است که این کار را برای افراد فوق‌العاده آسان و قابل دسترس کنیم تا سطح بعدی تفکر طراحی یا سطح بعدی ساخت نرم‌افزار را برای خودشان انجام دهند.»

کوروِک گفت که گوگل قصد دارد بلافاصله پس از Google I/O، قابلیتی اضافه کند که به کاربران اجازه می‌دهد با گرفتن اسکرین‌شات (screenshot) از المانی که می‌خواهند تغییر دهند و حاشیه‌نویسی کردن (annotating) آن با تغییرات مورد نظرشان، در طراحی‌های UI خود تغییراتی ایجاد کنند. او افزود که اگرچه Stitch کاملاً قدرتمند است، اما قرار نیست یک پلتفرم طراحی کامل مانند Figma یا Adobe XD باشد.

در کنار Stitch، گوگل دسترسی به Jules را که عامل هوش مصنوعی آن با هدف کمک به توسعه‌دهندگان در رفع باگ‌ها (bugs) در کدهایشان است، گسترش داده است. این ابزار که اکنون در بتا عمومی (public beta) قرار دارد، به توسعه‌دهندگان کمک می‌کند کدهای پیچیده را بفهمند، درخواست‌های کشیدن (pull requests) در GitHub ایجاد کنند و برخی موارد بک‌لاگ (backlog) و وظایف برنامه‌نویسی را مدیریت کنند.

در یک نسخه نمایشی جداگانه، کوروِک نشان داد که Jules چگونه وب‌سایتی که با نسخه منسوخ شده Node.js 16 اجرا می‌شد را به Node.js 22 ارتقا می‌دهد. Jules کدبیس (codebase) سایت را در یک ماشین مجازی (virtual machine) تمیز کلون کرده و یک «برنامه» برای ارتقا به اشتراک گذاشت که سپس کوروِک از آن تایید کرد. پس از اتمام ارتقا، کوروِک از Jules خواست تا بررسی کند که آیا وب‌سایت هنوز به درستی کار می‌کند – که Jules این کار را انجام داد.

Jules در حال حاضر از مدل Gemini 2.5 Pro استفاده می‌کند، اما کوروِک به TechCrunch گفت که کاربران در آینده قادر خواهند بود بین مدل‌های مختلف سوئیچ کنند.

منبع: تک‌کرانچ

به مطالعه ادامه دهید