OpenAI چگونه قدرت سیستم‌های هوش مصنوعی خود را تعیین می‌کند؟

OpenAI چگونه قدرت سیستم‌های هوش مصنوعی خود را تعیین می‌کند؟

OpenAI، شرکت تحقیقاتی پیشرو در‌زمینه‌ی هوش مصنوعی، از روشی چندوجهی برای تعیین قدرت سیستم‌های هوش مصنوعی خود استفاده می‌کند.

به‌گزارش تک‌ناک، یکی از سخن‌گویان شرکت OpenAI به بلومبرگ اعلام کرد که این شرکت مقیاسی داخلی برای ردیابی پیشرفت مدل‌های زبان بزرگ خود به‌سمت هوش مصنوعی عمومی (AGI) یا هوش مصنوعی با هوش انسانی ایجاد کرده است.

ورج می‌نویسد که چت‌بات‌های امروزی مانند ChatGPT در سطح اول قرار دارند. OpenAI ادعا می‌کند که به سطح دوم نزدیک می‌شود که به‌عنوان سیستمی تعریف می‌شود که می‌تواند مشکلات اساسی را در سطح فرد دارای مدرک دکتری حل کند.

سطح سوم به عوامل هوش مصنوعی اشاره می‌کند که به‌نمایندگی از کاربر می‌تواند اقداماتی انجام دهد. سطح چهارم شامل نوعی هوش مصنوعی است که می‌تواند نوآوری‌های جدید ایجاد کند. سطح پنجم گام نهایی برای دستیابی به AGI، هوش مصنوعی‌ای است که می‌تواند کار کل سازمان‌های انسانی را انجام دهد.

OpenAI پیش‌تر AGI را به‌عنوان سیستمی بسیار خودمختار تعریف کرده است که از انسان‌ها در اکثر وظایف با ارزش اقتصادی پیشی می‌گیرد. ساختار منحصربه‌فرد OpenAI حول دستیابی به AGI متمرکز شده است و نحوه‌ی تعریف AGI این شرکت اهمیت بسیاری دارد.

شرکت OpenAI گفته است که اگر پروژه‌ای همسو با ارزش‌ها و آگاه از ایمنی قبل از OpenAI به ساخت AGI نزدیک شود، متعهد می‌شود که با این پروژه رقابت نکند و همه‌چیز را برای کمک به آن کنار بگذارد. عبارت‌بندی این موضوع در منشور OpenAI مبهم است و فضای تصمیم‌گیری را برای نهاد سودآور باقی می‌گذارد، بااین‌حال، مقیاسی که OpenAI می‌تواند خود و رقبا را روی آن آزمایش کند، به تعیین زمان رسیدن به AGI با عبارات روشن‌تر کمک می‌کند.

OpenAI

با‌این‌حال، دسترسی کامل به AGI هنوز بسیار دور است؛ زیرا رسیدن به AGI اگر اصلاً امکان‌پذیر باشد، به میلیاردها دلار و میلیاردها قدرت محاسباتی نیاز دارد. جدول زمانی کارشناسان و حتی OpenAI بسیار متفاوت است. در اکتبر ۲۰۲۳، سم آلتمن، مدیرعامل OpenAI، ادعا کرد که شرکتش حدود پنج سال تا رسیدن به AGI فاصله داریم.

این مقیاس نمره‌دهی جدید هنوز در حال توسعه است؛ ولی یک روز پس از اعلام همکاری OpenAI با آزمایشگاه ملی لس‌آلاموس معرفی شد که هدف آن بررسی نحوه‌ی کمک ایمن مدل‌های پیشرفته هوش مصنوعی مانند GPT-4o به تحقیقات زیست‌علمی است.

در ماه می، OpenAI تیم ایمنی خود را پس از ترک ایلیا سوتسکیور، یکی از بنیان‌گذاران OpenAI، منحل کرد. جان لایک، از محققان اصلی OpenAI، اندکی پس از آن با ادعای اینکه فرهنگ و فرایندهای ایمنی در شرکت جای خود را به محصولات پرزرق‌وبرق داده‌اند، استعفا داد. اگرچه OpenAI این ادعا را رد کرده است، برخی نگران هستند که این موضوع درصورت رسیدن واقعی شرکت به AGI چه معنایی خواهد داشت.

OpenAI جزئیاتی از نحوه‌ی اختصاص مدل‌ها به این سطوح داخلی ارائه نکرده است. با‌این‌حال به‌گفته‌ی بلومبرگ، رهبران شرکت اخیراً در جلسه‌ای عمومی پروژه‌ای تحقیقاتی با استفاده از مدل هوش مصنوعی GPT-4 را نشان دادند و معتقدند پروژه‌ی مذکور برخی از مهارت‌های جدید را نشان می‌دهد که از استدلال شبیه به انسان حکایت می‌کند.

این مقیاس می‌تواند به ارائه‌ی تعریف دقیق از پیشرفت کمک کند، نه اینکه آن را برای تفسیر باز بگذارد. برای مثال، میرا موراتی، مدیر فناوری OpenAI، در مصاحبه‌ای در ماه ژوئن گفت که مدل‌های موجود در آزمایشگاه‌های آن‌ها چندان بهتر از مدل‌های سایر آزمایشگاه‌ها نیستند. در همین حال، سم آلتمن، مدیرعامل شرکت، اواخر سال گذشته گفت که این شرکت اخیراً «پرده‌ی جهل را کنار زده است» و این یعنی مدل‌ها بسیار هوشمندتر شده‌اند.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

technoc-instagram