سام آلتمن، مدیرعامل OpenAI، با لکس فریدمن درباره موضوعات مختلف، از جمله این سوال بحث برانگیز که آیا ربات هوش مصنوعی ChatGPT “بیش از حد بیدار” است یا سوگیری دارد، به گفتگو نشست.
به گزارش تکناک، سام آلتمن بر اساس مصاحبه ای که فریدمن دیروز منتشر کرد، اگرچه اعتراف کرد که معنی اصطلاح “بیدار” در طول زمان تغییر کرده است، اما در نهایت آلتمن پذیرفت که ربات چت هوش مصنوعی ChatGPT سوگیری دارد و احتمالا همیشگی خواهد بود.
آلتمن اضافه کرد که OpenAI ، مدل GPT را بین نسخه های GPT-3.5 و GPT-4 به طور قابل توجهی ارتقا داده است.
او از منتقدانی که به پیشرفتهای OpenAI توجه میکنند تشکر کرد و در عین حال خاطرنشان کرد که کارهای بیشتری باید انجام شود.
آلتمن همچنین به انتقاد ایلان ماسک از تحقیقات ایمنی AGI شرکت OpenAI پاسخ داد. آلتمن با نگرانیهای ماسک همدردی کرد، اما از ماسک درخواست کرد بیشتر روی مساله دشوار رسیدگی به مسائل ایمنی هوش مصنوعی تمرکز کند.
او گفت: بدیهی است که در حال حاضر ایلان ماسک از چند زاویه مختلف به ما حمله می کند و من با او همسو هستم زیرا من معتقدم که او نگرانی های موجهی در مورد ایمنی AGI دارد. من مطمئن هستم که انگیزه های دیگری نیز وجود دارد، اما این قطعا یکی از آنهاست.من قطعا با ایلان ماسک به عنوان یک الگوی قهرمان در زندگی خود رشد کردم. ، علیرغم اینکه او در توییتر یا هر چیز دیگری از ما انتقاد می کند ، من خوشحالم که او در دنیا وجود دارد، اما آرزو میکنم که او بیشتر تلاش کند تا به کارهای سخت نگاه کند.
AGI مخفف عبارت “هوش مصنوعی عمومی” (Artificial General Intelligence) است. این نوع هوش مصنوعی در انواع مختلف کارها و فعالیتها میتواند عملکردی مشابه یا بهتر از انسان داشته باشد. در حال حاضر، بسیاری از سیستمهای هوش مصنوعی برای کاربردهای خاصی طراحی شدهاند و به عنوان هوش مصنوعی تخصصی (ASI) شناخته میشوند. اما AGI به دنبال توسعه هوش مصنوعی است که میتواند در موضوعات و کارهای متنوع به خوبی انسان عمل کند و درک کلی داشته باشد.
آلتمن همچنین درباره احتمال خطرات هوش مصنوعی صحبت کرد. او گفت من به بسیاری از پیشبینیهای انجام شده در این مورد فکر می کنم. این برای هر زمینه جدیدی صادق است، اما به نظر می رسد بسیاری از پیشبینیها در مورد هوش مصنوعی از نظر قابلیتها، از نظر چالشهای ایمنی و بخشهای آسان، اشتباه بوده است.