در میانه یک طوفان شایعات و گمانزنیها در مورد اخراج و بازگشت ناگهانی سم آلتمن، مدیرعامل OpenAI، یک سوال مهم مطرح است: چه عاملی باعث شد که هیئت مدیره او را اخراج کند؟
به گزارش تکناک بخشی از پاسخ به این سوال مربوط به یک پروژه محرمانه در OpenAI به نام پروژه Q* یا پروژه Q Star است. جزئیات این پروژه محدود و مبهم است، اما تاکنون تمامی اطلاعات موجود به این موضوع اشار میکند که این پروژه شمال تحولات بالقوه انقلابی در هوشمصنوعی است.
فهرست مطالب
پروژه Q* چیست؟
پروژه Q* یک پروژه محرمانه در OpenAI است که اطلاعات مربوط به آن بر اساس گزارشهای اخیر و پیامدهای ناشی از اخراج سم آلتمن، مدیرعامل OpenAI، به دست آمده است.
روزنامهنگاران رویترز در تاریخ ۲۲ نوامبر اطلاعاتی در این باره را از “دو نفر مطلع به موضوع” دریافت کردهاند که نوری به پشت صحنه رویدادهایی که در هفتههای منتهی به اخراج در داخل OpenAI رخ داده بود، میافکند. این اطلاعات نشان میدهد که Project Q* ممکن است بخشی از تحولات بزرگتر و مهمتر در زمینه فناوری هوش مصنوعی باشد.
پروژه Q* در OpenAI به عنوان یک مدل جدید هوش مصنوعی شناخته شده که در یادگیری و انجام محاسبات ریاضی برجسته بود. گفته میشود که این مدل هنوز تنها در سطح حل مسائل ریاضی سطح دبستانی بود، اما به عنوان نقطه شروع برای نشان دادن سطحی از هوش که تا به حال توسط پژوهشگران درگیر دیده نشده بود، امیدوارکننده به نظر میرسید.
در نگاه اول، این پروژه به نظر بیضرر میآید، اما مسئله پیچیدهتر است. گزارشها حاکی از آن هستند که وجود Q* به اندازهای نگرانکننده تلقی شده که چندین پژوهشگر در OpenAI را برانگیخته تا به هیئت مدیره نامهای ارسال کنند و درباره این پروژه هشدار دهند. آنها ادعا کردهاند که Q* پتانسیل دارد تا برای بشریت تهدیدآمیز باشد. این هشدار نشان میدهد که این پروژه ممکن است تاثیرات و پیامدهایی داشته باشد که فراتر از تصورات قبلی در مورد هوش مصنوعی است.
از طرف دیگر، تفسیرهای متفاوتی از پروژه Q* وجود دارد که نشان میدهد این پروژه لزوماً به اندازهای که گفته شده مهم و سرنوشتساز نیست. Yann LeCun، دانشمند برجسته در زمینه هوش مصنوعی در شرکت Meta، در یک توییت اظهار داشت که پروژه Q* به جایگزینی “پیشبینی توکن به شیوه خودکار-پیشرو” با “برنامهریزی” اختصاص دارد. این رویکرد به عنوان راهکاری برای بهبود قابلیت اطمینان مدلهای زبان بزرگ (LLM) مطرح شده است.
LeCun میگوید که تمام رقبای OpenAI، از جمله Meta، در حال تحقیق و توسعه در این زمینه بودهاند و OpenAI نیز برای این منظور اقدام به استخدام خاصی کرده است. این نشان میدهد که در حالی که برخی جنبههای Q* ممکن است نگرانکننده باشند، جنبههای دیگر آن ممکن است بخشی از تحقیقات جاری در حوزه هوش مصنوعی باشند که برای پیشرفت این حوزه ضروری هستند.
در توییت Lecun آمده است:
یکی از چالشهای اصلی در بهبود قابلیت اطمینان مدلهای زبان بزرگ (LLM)، جایگزینی پیشبینی توکن خودکار-پیشرو با برنامهریزی است. این یک موضوع محوری در تحقیقات حال حاضر در زمینه هوش مصنوعی است و تقریباً تمام آزمایشگاههای برتر در این حوزه، از جمله FAIR (Facebook AI Research)، DeepMind، و OpenAI، روی این موضوع کار میکنند. برخی از این موسسات حتی یافتهها و نتایج خود را منتشر کردهاند.
پروژه Q* احتمالاً تلاشهای OpenAI در این زمینه است. OpenAI تقریباً Noam Brown را برای کار بر روی این موضوع استخدام کرده است، که به خاطر کارهایش بر روی Libratus (در زمینه پوکر) و Cicero (در زمینه دیپلماسی) شهرت دارد.
نقطه نظر LeCun به این معنا نیست که چنین پیشرفتی در حوزه AI اهمیت ندارد؛ بلکه او معتقد است که این توسعهای نیست که ناشناخته باشد یا در میان سایر دانشمندان AI موضوع بحث نباشد. LeCun به Altman انتقاد میکند و مدعی میشود که Altman دارای “سابقهای طولانی در فریب خود” است و همچنین بیان میکند که گزارشها درباره Q* او را قانع نمیکنند که پیشرفت چشمگیری در زمینه برنامهریزی با استفاده از مدلهای یادگیری انجام شده است.
آیا واقعاً Sam Altman به خاطر پروژه Q* اخراج شد؟
از بدو شروع گمانهزنیها در مورد اخراج سم آلتمن، یکی از عوامل اصلی مورد بحث، نگرش او به امور امنیتی بوده است. آلتمن کسی است که OpenAI را به سمت فاصله گرفتن از ریشههای غیرانتفاعی و پیشبرد آن به سوی تجاریسازی سوق داد. این روند با راهاندازی عمومی ChatGPT و در نهایت ارائه ChatGPT Plus آغاز شد، که هر دو به آغاز دوره جدیدی در عرصه هوش مصنوعی مولد انجامیدند و موجب شدند شرکتهای دیگری چون گوگل نیز فناوریهای خود را عمومی کنند.
علیرغم هیجانهای پشت تحولاتی که اکنون در دنیا در حال وقوع هستند، دغدغههای اخلاقی و امنیتی در خصوص دسترسی عمومی به این فناوری همیشه مطرح بودهاند.
نگرانیهای بزرگتری نیز درباره سرعت رشد فناوری مطرح شدهاند، بهخصوص با انتقال از GPT-3.5 به GPT-4. برخی معتقدند که فناوری با سرعت بیش از حد و بدون قوانین و نظارت کافی در حال توسعه است. طبق گزارش رویترز، “تجاریسازی پیشرفتها قبل از درک کامل پیامدهای آنها” به عنوان یکی از دلایل اصلی برای اخراج اولیه آلتمن ذکر شده است.
اگرچه ما اطلاع دقیقی نداریم که آیا آلتمن به طور مشخص در نامهای در ارتباط با Q*، که قبلاً اشاره شده، ذکر شده است یا خیر، اما این موضوع به عنوان یکی از دلایل تصمیم هیئت مدیره برای اخراج آلتمن مطرح شده است، که او از آن زمان به شغل خود بازگشته است.
قابل توجه است که تنها چند روز پیش از اخراج او، آلتمن در یک کنفرانس هوش مصنوعی اشاره کرده بود که او “در جلسهای” بوده است که در آن پیشرفت قابل توجهی در “کشف مرزها” صورت گرفته است. این زمانبندی میتواند نشان دهنده این باشد که او به دستاوردی در Q* اشاره کرده و اگر اینطور باشد، نشاندهنده دخالت عمیق آلتمن در این پروژه است.
با قرار دادن این اطلاعات در کنار هم، به نظر میرسد که نگرانیها در مورد تجاریسازی از ابتدا وجود داشتهاند و رفتار آلتمن با Q* تنها آخرین عامل تأثیرگذار بوده است. این واقعیت که هیئت مدیره به قدری نگران توسعه سریع (و شاید نگرش خود آلتمن نسبت به آن) بوده که تصمیم به اخراج مدیرعامل برجستهشان گرفتهاند، بسیار شگفتانگیز است.
برای پایان دادن به برخی از گمانهزنیها، گزارش شده است که The Verge از “فردی آگاه به موضوع” شنیده که نامه فرضی در مورد Q* هرگز توسط هیئت مدیره دریافت نشده و “پیشرفت تحقیقاتی شرکت” دلیلی برای اخراج آلتمن نبوده است.
ما باید منتظر گزارشهای بیشتری بمانیم تا اطلاعات دقیقتری به دست آوریم و قبل از داشتن توضیح مناسبی برای تمام این حوادث، بتوانیم درک بهتری از اوضاع داشته باشیم.
آیا پروژه Q* واقعاً آغاز AGI است؟
اما باید به اظهارات لوکان که قبلاً ذکر شد نیز توجه کنیم. Q* هر چه باشد، احتمالاً میتوان فرض کرد که OpenAI تنها آزمایشگاهی نیست که برای توسعه آن تلاش میکند. و اگر در نهایت دلیل اخراج آلتمن نباشد، همانطور که گزارش The Verge اصرار دارد، شاید به اندازهای که گزارش رویترز ادعا میکند، مهم نباشد.
هوش مصنوعی عمومی (AGI)، که OpenAI از ابتدای تأسیس خود به دنبال تحقق آن بوده است، به سیستمهای خودمختار تعریف شده که در اکثر کارهای با ارزش اقتصادی توانایی برتری بر انسانها را دارند. این تعریف، که توسط رویترز اشاره شده، به “سیستمهای خودآگاه” اشارهای نکرده است. درک این موضوع مهم است، زیرا بسیاری تصور میکنند AGI به معنای آگاهی مصنوعی است.
پیشرفتها در حوزه ریاضیات هوش مصنوعی، اگرچه ممکن است در ابتدا چندان مهم به نظر نرسد، اما نقش کلیدی در توسعه AGI دارند. استفاده از کامپیوترها در ریاضیات سالهاست که مرسوم است، اما تواناییهای ارائه شده به سیستمهای جدید، مانند Q*، فراتر از یک ماشین حساب ساده است. این تواناییها شامل منطق و استدلال مشابه انسان است که توسط پژوهشگران به عنوان گام مهمی در راستای AGI دیده میشود.
LLMها (مدلهای زبانی بزرگ) در نوشتن و زبان تواناییهای قابل توجهی دارند و میتوانند پاسخهای روان و متنوعی ارائه دهند. در مقابل، ریاضیات معمولاً فقط یک پاسخ صحیح دارد. گزارش رویترز اشاره میکند که پژوهشگران AI معتقدند این نوع هوش میتواند حتی در تحقیقات علمی نوآورانه مورد استفاده قرار گیرد.
Q*، که هنوز در مراحل اولیه توسعه قرار دارد، به نظر میرسد بزرگترین پیشرفت پس از GPT-4 است. این پیشرفت باید به عنوان گام مهمی در مسیر AGI به تعریف ارائه شده توسط OpenAI در نظر گرفته شود. این پیشرفت میتواند باعث هیجان خوشبینانه یا ترس وجودی شود، بسته به دیدگاه شخصی.
با این حال، باید به رقابت در این حوزه نیز توجه داشت. به گفته لوکان، Q* احتمالاً تنها توسط OpenAI توسعه نمییابد و سایر آزمایشگاهها نیز در این رقابت حضور دارند. این امر، همانطور که The Verge بیان میکند، ممکن است به اندازهای که رویترز ادعا میکند، مهم نباشد.