OpenAI، شرکت تحقیقاتی پیشرو درزمینهی هوش مصنوعی، از روشی چندوجهی برای تعیین قدرت سیستمهای هوش مصنوعی خود استفاده میکند.
بهگزارش تکناک، یکی از سخنگویان شرکت OpenAI به بلومبرگ اعلام کرد که این شرکت مقیاسی داخلی برای ردیابی پیشرفت مدلهای زبان بزرگ خود بهسمت هوش مصنوعی عمومی (AGI) یا هوش مصنوعی با هوش انسانی ایجاد کرده است.
ورج مینویسد که چتباتهای امروزی مانند ChatGPT در سطح اول قرار دارند. OpenAI ادعا میکند که به سطح دوم نزدیک میشود که بهعنوان سیستمی تعریف میشود که میتواند مشکلات اساسی را در سطح فرد دارای مدرک دکتری حل کند.
سطح سوم به عوامل هوش مصنوعی اشاره میکند که بهنمایندگی از کاربر میتواند اقداماتی انجام دهد. سطح چهارم شامل نوعی هوش مصنوعی است که میتواند نوآوریهای جدید ایجاد کند. سطح پنجم گام نهایی برای دستیابی به AGI، هوش مصنوعیای است که میتواند کار کل سازمانهای انسانی را انجام دهد.
OpenAI پیشتر AGI را بهعنوان سیستمی بسیار خودمختار تعریف کرده است که از انسانها در اکثر وظایف با ارزش اقتصادی پیشی میگیرد. ساختار منحصربهفرد OpenAI حول دستیابی به AGI متمرکز شده است و نحوهی تعریف AGI این شرکت اهمیت بسیاری دارد.
شرکت OpenAI گفته است که اگر پروژهای همسو با ارزشها و آگاه از ایمنی قبل از OpenAI به ساخت AGI نزدیک شود، متعهد میشود که با این پروژه رقابت نکند و همهچیز را برای کمک به آن کنار بگذارد. عبارتبندی این موضوع در منشور OpenAI مبهم است و فضای تصمیمگیری را برای نهاد سودآور باقی میگذارد، بااینحال، مقیاسی که OpenAI میتواند خود و رقبا را روی آن آزمایش کند، به تعیین زمان رسیدن به AGI با عبارات روشنتر کمک میکند.
بااینحال، دسترسی کامل به AGI هنوز بسیار دور است؛ زیرا رسیدن به AGI اگر اصلاً امکانپذیر باشد، به میلیاردها دلار و میلیاردها قدرت محاسباتی نیاز دارد. جدول زمانی کارشناسان و حتی OpenAI بسیار متفاوت است. در اکتبر ۲۰۲۳، سم آلتمن، مدیرعامل OpenAI، ادعا کرد که شرکتش حدود پنج سال تا رسیدن به AGI فاصله داریم.
این مقیاس نمرهدهی جدید هنوز در حال توسعه است؛ ولی یک روز پس از اعلام همکاری OpenAI با آزمایشگاه ملی لسآلاموس معرفی شد که هدف آن بررسی نحوهی کمک ایمن مدلهای پیشرفته هوش مصنوعی مانند GPT-4o به تحقیقات زیستعلمی است.
در ماه می، OpenAI تیم ایمنی خود را پس از ترک ایلیا سوتسکیور، یکی از بنیانگذاران OpenAI، منحل کرد. جان لایک، از محققان اصلی OpenAI، اندکی پس از آن با ادعای اینکه فرهنگ و فرایندهای ایمنی در شرکت جای خود را به محصولات پرزرقوبرق دادهاند، استعفا داد. اگرچه OpenAI این ادعا را رد کرده است، برخی نگران هستند که این موضوع درصورت رسیدن واقعی شرکت به AGI چه معنایی خواهد داشت.
OpenAI جزئیاتی از نحوهی اختصاص مدلها به این سطوح داخلی ارائه نکرده است. بااینحال بهگفتهی بلومبرگ، رهبران شرکت اخیراً در جلسهای عمومی پروژهای تحقیقاتی با استفاده از مدل هوش مصنوعی GPT-4 را نشان دادند و معتقدند پروژهی مذکور برخی از مهارتهای جدید را نشان میدهد که از استدلال شبیه به انسان حکایت میکند.
این مقیاس میتواند به ارائهی تعریف دقیق از پیشرفت کمک کند، نه اینکه آن را برای تفسیر باز بگذارد. برای مثال، میرا موراتی، مدیر فناوری OpenAI، در مصاحبهای در ماه ژوئن گفت که مدلهای موجود در آزمایشگاههای آنها چندان بهتر از مدلهای سایر آزمایشگاهها نیستند. در همین حال، سم آلتمن، مدیرعامل شرکت، اواخر سال گذشته گفت که این شرکت اخیراً «پردهی جهل را کنار زده است» و این یعنی مدلها بسیار هوشمندتر شدهاند.