پروژه Q* شرکت OpenAI چیست؟

در میانه یک طوفان شایعات و گمان‌زنی‌ها در مورد اخراج و بازگشت ناگهانی سم آلتمن، مدیرعامل OpenAI، یک سوال مهم مطرح است: چه عاملی باعث شد که هیئت مدیره او را اخراج کند؟

به گزارش تک‌ناک بخشی از پاسخ به این سوال مربوط به یک پروژه محرمانه در OpenAI به نام پروژه Q* یا پروژه Q Star است. جزئیات این پروژه محدود و مبهم است، اما تاکنون تمامی اطلاعات موجود به این موضوع اشار می‌کند که این پروژه شمال تحولات بالقوه انقلابی در هوش‌مصنوعی است.

پروژه Q* چیست؟

پروژه Q* یک پروژه محرمانه در OpenAI است که اطلاعات مربوط به آن بر اساس گزارش‌های اخیر و پیامدهای ناشی از اخراج سم آلتمن، مدیرعامل OpenAI، به دست آمده است.

روزنامه‌نگاران رویترز در تاریخ ۲۲ نوامبر اطلاعاتی در این باره را از “دو نفر مطلع به موضوع” دریافت کرده‌اند که نوری به پشت صحنه رویدادهایی که در هفته‌های منتهی به اخراج در داخل OpenAI رخ داده بود، می‌افکند. این اطلاعات نشان می‌دهد که Project Q* ممکن است بخشی از تحولات بزرگ‌تر و مهم‌تر در زمینه فناوری هوش مصنوعی باشد.

پروژه Q* در OpenAI به عنوان یک مدل جدید هوش مصنوعی شناخته شده که در یادگیری و انجام محاسبات ریاضی برجسته بود. گفته می‌شود که این مدل هنوز تنها در سطح حل مسائل ریاضی سطح دبستانی بود، اما به عنوان نقطه شروع برای نشان دادن سطحی از هوش که تا به حال توسط پژوهشگران درگیر دیده نشده بود، امیدوارکننده به نظر می‌رسید.

در نگاه اول، این پروژه به نظر بی‌ضرر می‌آید، اما مسئله پیچیده‌تر است. گزارش‌ها حاکی از آن هستند که وجود Q* به اندازه‌ای نگران‌کننده تلقی شده که چندین پژوهشگر در OpenAI را برانگیخته تا به هیئت مدیره نامه‌ای ارسال کنند و درباره این پروژه هشدار دهند. آن‌ها ادعا کرده‌اند که Q* پتانسیل دارد تا برای بشریت تهدیدآمیز باشد. این هشدار نشان می‌دهد که این پروژه ممکن است تاثیرات و پیامدهایی داشته باشد که فراتر از تصورات قبلی در مورد هوش مصنوعی است.

از طرف دیگر، تفسیرهای متفاوتی از پروژه Q* وجود دارد که نشان می‌دهد این پروژه لزوماً به اندازه‌ای که گفته شده مهم و سرنوشت‌ساز نیست. Yann LeCun، دانشمند برجسته در زمینه هوش مصنوعی در شرکت Meta، در یک توییت اظهار داشت که پروژه Q* به جایگزینی “پیش‌بینی توکن به شیوه خودکار-پیشرو” با “برنامه‌ریزی” اختصاص دارد. این رویکرد به عنوان راهکاری برای بهبود قابلیت اطمینان مدل‌های زبان بزرگ (LLM) مطرح شده است.

LeCun می‌گوید که تمام رقبای OpenAI، از جمله Meta، در حال تحقیق و توسعه در این زمینه بوده‌اند و OpenAI نیز برای این منظور اقدام به استخدام خاصی کرده است. این نشان می‌دهد که در حالی که برخی جنبه‌های Q* ممکن است نگران‌کننده باشند، جنبه‌های دیگر آن ممکن است بخشی از تحقیقات جاری در حوزه هوش مصنوعی باشند که برای پیشرفت این حوزه ضروری هستند.

در توییت Lecun آمده است:

 یکی از چالش‌های اصلی در بهبود قابلیت اطمینان مدل‌های زبان بزرگ (LLM)، جایگزینی پیش‌بینی توکن خودکار-پیشرو با برنامه‌ریزی است. این یک موضوع محوری در تحقیقات حال حاضر در زمینه هوش مصنوعی است و تقریباً تمام آزمایشگاه‌های برتر در این حوزه، از جمله FAIR (Facebook AI Research)، DeepMind، و OpenAI، روی این موضوع کار می‌کنند. برخی از این موسسات حتی یافته‌ها و نتایج خود را منتشر کرده‌اند.

پروژه Q* احتمالاً تلاش‌های OpenAI در این زمینه است. OpenAI تقریباً Noam Brown را برای کار بر روی این موضوع استخدام کرده است، که به خاطر کارهایش بر روی Libratus (در زمینه پوکر) و Cicero (در زمینه دیپلماسی) شهرت دارد.

 

نقطه نظر LeCun به این معنا نیست که چنین پیشرفتی در حوزه AI اهمیت ندارد؛ بلکه او معتقد است که این توسعه‌ای نیست که ناشناخته باشد یا در میان سایر دانشمندان AI موضوع بحث نباشد. LeCun به Altman انتقاد می‌کند و مدعی می‌شود که Altman دارای “سابقه‌ای طولانی در فریب خود” است و همچنین بیان می‌کند که گزارش‌ها درباره Q* او را قانع نمی‌کنند که پیشرفت چشمگیری در زمینه برنامه‌ریزی با استفاده از مدل‌های یادگیری انجام شده است.

آیا واقعاً Sam Altman به خاطر پروژه Q* اخراج شد؟

از بدو شروع گمانه‌زنی‌ها در مورد اخراج سم آلتمن، یکی از عوامل اصلی مورد بحث، نگرش او به امور امنیتی بوده است. آلتمن کسی است که OpenAI را به سمت فاصله گرفتن از ریشه‌های غیرانتفاعی و پیشبرد آن به سوی تجاری‌سازی سوق داد. این روند با راه‌اندازی عمومی ChatGPT و در نهایت ارائه ChatGPT Plus آغاز شد، که هر دو به آغاز دوره جدیدی در عرصه هوش مصنوعی مولد انجامیدند و موجب شدند شرکت‌های دیگری چون گوگل نیز فناوری‌های خود را عمومی کنند.

علی‌رغم هیجان‌های پشت تحولاتی که اکنون در دنیا در حال وقوع هستند، دغدغه‌های اخلاقی و امنیتی در خصوص دسترسی عمومی به این فناوری همیشه مطرح بوده‌اند.

نگرانی‌های بزرگ‌تری نیز درباره سرعت رشد فناوری مطرح شده‌اند، به‌خصوص با انتقال از GPT-3.5 به GPT-4. برخی معتقدند که فناوری با سرعت بیش از حد و بدون قوانین و نظارت کافی در حال توسعه است. طبق گزارش رویترز، “تجاری‌سازی پیشرفت‌ها قبل از درک کامل پیامدهای آن‌ها” به عنوان یکی از دلایل اصلی برای اخراج اولیه آلتمن ذکر شده است.

اگرچه ما اطلاع دقیقی نداریم که آیا آلتمن به طور مشخص در نامه‌ای در ارتباط با Q*، که قبلاً اشاره شده، ذکر شده است یا خیر، اما این موضوع به عنوان یکی از دلایل تصمیم هیئت مدیره برای اخراج آلتمن مطرح شده است، که او از آن زمان به شغل خود بازگشته است.

قابل توجه است که تنها چند روز پیش از اخراج او، آلتمن در یک کنفرانس هوش مصنوعی اشاره کرده بود که او “در جلسه‌ای” بوده است که در آن پیشرفت قابل توجهی در “کشف مرزها” صورت گرفته است. این زمان‌بندی می‌تواند نشان دهنده این باشد که او به دستاوردی در Q* اشاره کرده و اگر این‌طور باشد، نشان‌دهنده دخالت عمیق آلتمن در این پروژه است.

با قرار دادن این اطلاعات در کنار هم، به نظر می‌رسد که نگرانی‌ها در مورد تجاری‌سازی از ابتدا وجود داشته‌اند و رفتار آلتمن با Q* تنها آخرین عامل تأثیرگذار بوده است. این واقعیت که هیئت مدیره به قدری نگران توسعه سریع (و شاید نگرش خود آلتمن نسبت به آن) بوده که تصمیم به اخراج مدیرعامل برجسته‌شان گرفته‌اند، بسیار شگفت‌انگیز است.

برای پایان دادن به برخی از گمانه‌زنی‌ها، گزارش شده است که The Verge از “فردی آگاه به موضوع” شنیده که نامه فرضی در مورد Q* هرگز توسط هیئت مدیره دریافت نشده و “پیشرفت تحقیقاتی شرکت” دلیلی برای اخراج آلتمن نبوده است.

ما باید منتظر گزارش‌های بیشتری بمانیم تا اطلاعات دقیق‌تری به دست آوریم و قبل از داشتن توضیح مناسبی برای تمام این حوادث، بتوانیم درک بهتری از اوضاع داشته باشیم.

آیا پروژه Q* واقعاً آغاز AGI است؟

اما باید به اظهارات لوکان که قبلاً ذکر شد نیز توجه کنیم. Q* هر چه باشد، احتمالاً می‌توان فرض کرد که OpenAI تنها آزمایشگاهی نیست که برای توسعه آن تلاش می‌کند. و اگر در نهایت دلیل اخراج آلتمن نباشد، همانطور که گزارش The Verge اصرار دارد، شاید به اندازه‌ای که گزارش رویترز ادعا می‌کند، مهم نباشد.

هوش مصنوعی عمومی (AGI)، که OpenAI از ابتدای تأسیس خود به دنبال تحقق آن بوده است، به سیستم‌های خودمختار تعریف شده که در اکثر کارهای با ارزش اقتصادی توانایی برتری بر انسان‌ها را دارند. این تعریف، که توسط رویترز اشاره شده، به “سیستم‌های خودآگاه” اشاره‌ای نکرده است. درک این موضوع مهم است، زیرا بسیاری تصور می‌کنند AGI به معنای آگاهی مصنوعی است.

پیشرفت‌ها در حوزه ریاضیات هوش مصنوعی، اگرچه ممکن است در ابتدا چندان مهم به نظر نرسد، اما نقش کلیدی در توسعه AGI دارند. استفاده از کامپیوترها در ریاضیات سال‌هاست که مرسوم است، اما توانایی‌های ارائه شده به سیستم‌های جدید، مانند Q*، فراتر از یک ماشین حساب ساده است. این توانایی‌ها شامل منطق و استدلال مشابه انسان است که توسط پژوهشگران به عنوان گام مهمی در راستای AGI دیده می‌شود.

LLM‌ها (مدل‌های زبانی بزرگ) در نوشتن و زبان توانایی‌های قابل توجهی دارند و می‌توانند پاسخ‌های روان و متنوعی ارائه دهند. در مقابل، ریاضیات معمولاً فقط یک پاسخ صحیح دارد. گزارش رویترز اشاره می‌کند که پژوهشگران AI معتقدند این نوع هوش می‌تواند حتی در تحقیقات علمی نوآورانه مورد استفاده قرار گیرد.

Q*، که هنوز در مراحل اولیه توسعه قرار دارد، به نظر می‌رسد بزرگترین پیشرفت پس از GPT-4 است. این پیشرفت باید به عنوان گام مهمی در مسیر AGI به تعریف ارائه شده توسط OpenAI در نظر گرفته شود. این پیشرفت می‌تواند باعث هیجان خوش‌بینانه یا ترس وجودی شود، بسته به دیدگاه شخصی.

با این حال، باید به رقابت در این حوزه نیز توجه داشت. به گفته لوکان، Q* احتمالاً تنها توسط OpenAI توسعه نمی‌یابد و سایر آزمایشگاه‌ها نیز در این رقابت حضور دارند. این امر، همانطور که The Verge بیان می‌کند، ممکن است به اندازه‌ای که رویترز ادعا می‌کند، مهم نباشد.

1 دیدگاه برای “پروژه Q* شرکت OpenAI چیست؟

  1. اشتراک‌ها: پروژه Q* شرکت OpenAI چیست؟ – سکوهای فناوری اطلاعات (سفا)

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

اخبار جدید تک‌ناک را از دست ندهید.