سم آلتمن، مدیرعامل OpenAI هشدار داد که استفاده از هوش مصنوعی مانند ChatGPT به عنوان درمانگر یا مشاور زندگی، فاقد هرگونه محرمانگی قانونی مشابه رابطه پزشک و بیمار است.
به گزارش تکناک، او در گفتوگویی با پادکست This Past Weekend with Theo Von تأکید کرد که هنوز چارچوب حقوقی مشخصی برای حفظ حریم خصوصی کاربران در چنین گفتوگوهای حساسی با هوش مصنوعی تعریف نشده است.
آلتمن در پاسخ به پرسشی درباره جایگاه قانونی هوش مصنوعی در نظام حقوقی فعلی، عنوان کرد: «یکی از مشکلاتی که در نبود چارچوب قانونی و سیاستگذاری مناسب برای هوش مصنوعی وجود دارد، این است که هیچ محرمانگی قانونی برای گفتوگوهای کاربران وجود ندارد.»
وی تصریح کرد: «مردم در گفتوگو با ChatGPT، خصوصیترین مسائل زندگی خود را مطرح میکنند. بهویژه جوانان، از آن به عنوان درمانگر، مربی زندگی یا مشاور روابط استفاده میکنند و مثلاً میپرسند: «چه کار باید بکنم؟» اما اگر شما این صحبتها را با یک درمانگر، وکیل یا پزشک در میان بگذارید، آن اطلاعات تحت حمایتهای قانونی و محرمانگی حرفهای قرار میگیرد، اما ما هنوز چنین چارچوبی را برای گفتوگو با ChatGPT نداریم.»

آلتمن هشدار داد که در صورت بروز شکایت یا طرح دعوی قضایی، OpenAI موظف به ارائه محتوای این مکالمات خواهد بود؛ مسئلهای که میتواند نگرانیهای جدی در مورد حریم خصوصی ایجاد کند. او گفت: «بهنظر من این وضعیت کاملاً نادرست است. باید برای مکالمات با هوش مصنوعی همان سطح از حریم خصوصی در نظر گرفته شود که برای گفتوگو با درمانگر یا پزشک در نظر گرفته میشود؛ موضوعی که حتی یک سال پیش، کسی به آن فکر نمیکرد.»
وی تأکید کرد که عدم وجود تضمینهای قانونی برای محرمانگی مکالمات، میتواند مانعی جدی برای گسترش استفاده عمومی از هوش مصنوعی مثل ChatGPT باشد. بهویژه از آنجا که سیستمهای هوش مصنوعی برای آموزش نیاز به دادههای گسترده اینترنتی دارند و در برخی پروندههای حقوقی نیز ملزم به ارائه دادههای کاربران شدهاند.
آلتمن در ادامه به دعوای حقوقی OpenAI با روزنامه نیویورک تایمز اشاره کرد که در جریان آن، دادگاه این شرکت را ملزم به ذخیرهسازی مکالمات صدها میلیون کاربر جهانی ChatGPT —البته به استثنای مشتریان سازمانی (ChatGPT Enterprise)— کرده است. شرکت OpenAI این دستور قضایی را «فراتر از حدود متعارف» خوانده و به آن اعتراض کرده است. این شرکت هشدار داده است که اگر دادگاه بتواند سیاستهای داخلی مربوط به حفظ حریم خصوصی را نادیده بگیرد، ممکن است پای OpenAI به تقاضاهای حقوقی و قضایی بیشتری باز شود.
همچنین مدیرعامل OpenAI به مسائلی مانند استفاده نهادهای دولتی از دادههای دیجیتال کاربران اشاره کرد و یادآور شد که شرکتهای فناوری در سالهای اخیر با احضاریههای قضایی برای ارائه دادههای کاربران مواجه شدهاند. به گفته وی، نگرانیها زمانی افزایش یافت که قوانین جدید، دسترسی به برخی آزادیهای سابق — از جمله حق انتخاب زنان — را محدود کردند.
برای نمونه، پس از لغو رأی تاریخی Roe v. Wade توسط دیوان عالی ایالات متحده، بسیاری از زنان به استفاده از اپلیکیشنهای پیگیری دورههای قاعدگی با سطح بالاتری از حفاظت اطلاعات مانند Apple Health روی آوردند.
آلتمن در پایان این گفتوگو، از مجری پادکست درباره تجربه شخصی او با ChatGPT پرسید و وقتی متوجه شد که وی به دلیل نگرانیهای مربوط به حریم خصوصی از این چتبات استفاده نمیکند، گفت: «کاملاً منطقی است… اینکه قبل از استفاده گسترده از ChatGPT، خواهان شفافیت حقوقی در زمینه حفظ حریم خصوصی باشید، کاملاً قابل درک است.»