اوپرا وینفری در برنامهای ویژه به نام «هوش مصنوعی و آیندهی ما»، با حضور چندین چهرهی شاخص تأثیر هوش مصنوعی بر آینده بشر را بررسی کرد.
پنجشنبه شب اوپرا وینفری در برنامهای ویژه با عنوان «هوش مصنوعی و آیندهی ما»، با حضور چندین چهرهی شاخص در زمینههای فناوری و امنیت، تأثیرات AI بر آیندهی بشر را واکاوی کرد. این برنامه شامل گفتوگوهایی با سام آلتمن، مدیرعامل OpenAI، مارکز براونلی، یکی از تأثیرگذاران فناوری، کریستوفر ری، مدیر فعلی FBI و بیل گیتس، مؤسس مایکروسافت بود. برنامهی مذکور بهدنبال بررسی مشکلات و فرصتهای هوش مصنوعی در جهان امروز بود و درنهایت، به پرسشهای اصلی دربارهی آینده ما درکنار این فناوری اشاره کرد.
فهرست مطالب
نگرانیهای اولیه؛ هوش مصنوعی، فراتر از کنترل؟
در ابتدای این برنامه، اوپرا وینفری اشاره کرد که هوش مصنوعی بهسرعت در حال گسترش است و این فناوری راه خود را برای بدتر یا بهتر کردن زندگی انسانها باز کرده است. او گفت:
هوش مصنوعی هنوز فراتر از کنترل و درک ما است؛ اماناگزیریم با آن زندگی کنیم. این فناوری میتواند هم متحد و هم رقیب ما باشد.
اوپرا به شک و تردیدهای موجود دربارهی توسعهی AI اشاره و تأکید کرد که انسانها موجوداتی بسیار سازگار هستند؛ ولی خطرهای این فناوری نیز بسیار زیاد است.
سام آلتمن؛ وعدههایی بزرگ و تردیدهای کارشناسان
سام آلتمن، مدیرعامل OpenAI و اولین میهمان برنامه، دربارهی قابلیتهای AI صحبت و ادعا کرد که سیستمهای فعلی میتوانند مفاهیمی از دادههایی را یاد بگیرند که روی آنها آموزش داده شدهاند.
آلتمن توضیح داد که مدلهای زبانی بهطور مداوم با نمایش هزاران کلمه بهترتیب یاد میگیرند که کلمهی بعدی چه خواهد بود و در این فرایند، به درک عمیقتری از زبان و مفاهیم دست مییابند.
او دراینباره گفت:
ما به سیستمهای خود هزاران کلمه را نشان میدهیم و از آنها میخواهیم که پیشبینی کنند کلمهی بعدی چه خواهد بود. با این روش، سیستمها شروع به یادگیری مفاهیم عمیقتری از زبان میکنند و این به آنها امکان میدهد تا نهتنها جملات را بسازند؛ بلکه به درکی ابتدایی از معنا و مفاهیم نهفته در پس کلمات برسند.
آلتمن درادامه افزود که آینده هوش مصنوعی بسیار امیدوارکننده است و قابلیتهای زیادی برای تغییرات مثبت در زمینههای مختلف ازجمله بهداشت و آموزش و اقتصاد دارد. او اضافه کرد که این تکنولوژی هنوز به بلوغ کامل نرسیده و بهطور کامل درک نشده است. بههمیندلیل، او بر اهمیت تنظیم قوانین و مقررات برای کنترل توسعه AI تأکید و از تلاشهایش برای جلب حمایت دولتها در این زمینه صحبت کرد.
او گفت:
یکی از کارهای مهمی که در حال انجام است، تلاش برای جلب توجه دولتها به نحوهی آزمایش ایمن سیستمهای هوش مصنوعی است. درست مانند صنعت هواپیما یا داروسازی که مقررات سختگیرانهای دارند، ما نیز باید مطمئن شویم که هوش مصنوعی بهطور صحیح آزمایش و کنترل میشود.
این اظهارات با تردیدهای برخی کارشناسان همراه شد. آنان بر این باورند که سیستمهای AI مانند ChatGPT صرفاً ماشینهایی آماری هستند که تنها الگوهای دادهها را شناسایی میکنند و نیتی پشت پرده فعالیتهایشان وجود ندارد. بهطور کلی، آنها فقط کلمات احتمالی را براساس دادههای قبلی حدس میزنند.
آلتمن درادامه تأکید کرد که تنظیم مقررات در این زمینه نباید بهگونهای باشد که نوآوری را سرکوب کند. او دربارهی مخالفت شرکتش با لایحهی ایمنی هوش مصنوعی کالیفرنیا معروف به SB 1047 اینچنین توضیح داد:
این لایحه با وجود نیتهای شایسته، بهدلیل محدودیتهای زیاد میتواند نوآوری را متوقف کند و ما نمیخواهیم این اتفاق بیفتد. درعینحال، ما بر این باوریم که باید سازوکارهای مناسبی برای نظارت و کنترل توسعهی AI وجود داشته باشد.
آلتمن بهطور خاص دربارهی خطرهای AI در زمینههایی مانند تولید دیپ فیک و اطلاعات نادرست نیز هشدار داد. او بیان کرد که هوش مصنوعی میتواند به ابزاری برای سوءاستفاده تبدیل شود و از مردم خواست تا هوشیارانه از آن استفاده کنند.
در بخش دیگری از مصاحبه، اوپرا وینفری از آلتمن پرسید که چرا مردم باید به او و تیمش اعتماد کنند. آلتمن بهصراحت پاسخ داد:
مردم نباید به من یا هیچ شخص دیگری بهتنهایی اعتماد کنند. ما باید سیستمی از مقررات و نظارتهای مناسب ایجاد کنیم که اطمینان دهد هوش مصنوعی بهطور مسئولانه توسعه پیدا میکند و بهنفع همهی انسانها است.
او در پاسخ به پرسشی دربارهی اینکه «آیا او قدرتمندترین و خطرناکترین مرد جهان است؟، گفت:
این عنوان برای من بسیار عجیب است. من خودم را در چنین جایگاهی نمیبینم؛ اما احساس مسئولیت بزرگی میکنم که هوش مصنوعی را در مسیری مثبت هدایت کنم.
تهدیدهای دیپ فیک؛ از آگاهی تا تهدید
یکی دیگر از موضوعات مهم در این برنامه، مسئلهی دیپ فیک و تهدیدهای آن بود. دیپ فیکها و ویدئوهای تقلبی تولیدشده با هوش مصنوعی، بهسرعت در حال پیشرفت هستند و میتوانند مخاطبان را بهسادگی فریب دهند. برای نشاندادن این مسئله، مارکز براونلی نمونههایی از ویدئوهای تولیدشده با فناوری دیپ فیک را بهنمایش گذاشت. او نشان داد که چگونه این ویدئوها بهمرورزمان دقیقتر و واقعیتر میشوند.
برای نمایش قدرت و پیشرفت رسانههای مصنوعی، براونلی نمونههایی از ویدئوهای تولیدشده با هوش مصنوعی OpenAI با نام Sora را با فیلمهای ساختهشده با سیستمهای AI دیگر مقایسه کرد. نتایج بهوضوح نشاندهندهی سرعت پیشرفت این فناوری بود؛ بهطوریکه نمونهی Sora بسیار پیشرفته بود.
براونلی دربارهی فیلم Sora گفت:
درحالحاضر، هنوزهم میتوانید با دقت به بخشهای مختلف این ویدئو نگاه کنید و متوجه شوید که چیزی غیرطبیعی است.
بااینحال، اوپرا وینفری نظر متفاوتی داشت و اظهار کرد که ازنظر او ویدئو واقعی بهنظر میرسد. درادامه نمایش دیپ فیک، کریسفتور ری، مدیر FBI، دربارهی اولین مواجههی خود با این فناوری توضیح داد. او گفت:
من در اتاق کنفرانس بودم که تعدادی از اعضای FBI به ما نشان دادند چگونه دیپ فیکهای تقویتشده با هوش مصنوعی ساخته میشود. آنها ویدئویی از من ساخته بودند که حرفهایی میزدم که هرگز نگفته بودم و نخواهم گفت.
ری همچنین دربارهی افزایش چشمگیر پروندههای اخاذی با استفاده از AI صحبت کرد. براساس دادههای شرکت امنیت سایبری ESET، در سالهای ۲۰۲۲ و ۲۰۲۳، نمونههای اخاذی جنسی ۱۷۸ درصد افزایش یافته است که بخشی از این افزایش بهدلیل استفاده از فناوری AI بوده است.
ری همچنین به موضوع اطلاعات نادرست در آستانهی انتخابات ریاستجمهوری آمریکا اشاره کرد. وی با تأکید بر اینکه زمان وحشت نیست، از مردم آمریکا خواست با دقت و احتیاط بیشتری درزمینهی استفاده از هوش مصنوعی برخورد کنند. او هشدار داد که افراد سودجو ممکن است از این فناوری علیه همهی ما استفاده کنند.
طبق نظرسنجی Statista، بیش از یکسوم از آمریکاییها تا پایان سال ۲۰۲۳ اطلاعات گمراهکننده یا مشکوک به نادرستبودن را دربارهی موضوعات مهم مشاهده کردهاند. امسال، تصاویر گمراهکنندهای که با هوش مصنوعی از شخصیتهای سیاسی مانند معاون رئیسجمهور کامالا هریس و رئیسجمهور سابق، دونالد ترامپ، تولید شدهاند، میلیونها بازدید در شبکههای اجتماعی مانند X داشتهاند.
بیل گیتس: هوش مصنوعی، ابزاری برای بهبود زندگی بشر
در بخش پایانی برنامه، اوپرا وینفری با بیل گیتس، بنیانگذار مایکروسافت، گفتوگو کرد. او گفت که این تکنولوژی میتواند دنیای پزشکی و آموزش را بهشکل بنیادین تغییر دهد و نقش مؤثری در بهبود زندگی انسانها ایفا کند. گیتس معتقد است که هوش مصنوعی میتواند بهعنوان دستیاری هوشمند در بسیاری از زمینهها عمل کند و بار کاری انسانها را کاهش دهد.
وی دربارهی کاربرد AI در حوزهی پزشکی گفت:
هوش مصنوعی میتواند در معاینههای پزشکی حضور داشته باشد و نقش دستیاری هوشمند را ایفا کند. این سیستم میتواند به پزشکان در تشخیص بیماریها کمک کند و پیشنهادهایی برای دارو و درمان ارائه دهد و حتی رونوشتهای دقیقی از مکالمات پزشک و بیمار تهیه کند. بدینترتیب، پزشکان میتوانند بیشتر روی تعامل با بیماران تمرکز و از فناوری برای بهبود کارایی و دقت خود استفاده کنند.
او به نقش هوش مصنوعی در آموزش نیز اشاره کرد و گفت:
این فناوری میتواند بهعنوان معلم مجازی عمل و به دانشآموزان کمک کند تا در هر سطحی از دانش، بهتر یاد بگیرند. هوش مصنوعی میتواند بهطور مداوم دردسترس باشد و دانشآموزان را در روند یادگیری همراهی کند.
با وجود این خوشبینیها، گیتس اذعان کرد که AI نیز میتواند مشکلاتی ایجاد کند. بهویژه او دربارهی تعصبات نژادی و اجتماعی هشدار داد که ممکن است در دادههای آموزشی سیستمهای هوش مصنوعی وجود داشته باشد. گیتس به مطالعاتی اشاره کرد که نشان میدهند سیستمهای تشخیص گفتار از شرکتهای پیشرو فناوری، دو برابر بیشتر احتمال دارند که صدای افراد سیاهپوست را بهاشتباه تشخیص دهند. او تأکید کرد که باید مراقب باشیم تا هوش مصنوعی بهطور عادلانه و بدون تعصب توسعه پیدا کند.
در پایان، گیتس تأکید کرد که هوش مصنوعی با تمام ظرفیتهای مثبت و منفیاش، به بخشی جداییناپذیر از آیندهی بشر تبدیل خواهد شد و باید بهدقت و مسئولانه با آن برخورد کرد. او گفت:
ما در دوران بسیار جالبی زندگی میکنیم. هوش مصنوعی میتواند به ابزار قدرتمندی برای بهبود زندگی همهی انسانها تبدیل شود؛ اما باید با دقت و آگاهی از مشکلات و خطرات آن، به جلو حرکت کنیم.