سام آلتمن، مدیر عامل OpenAI در روز سه شنبه (صبح چهارشنبه AEST) در جلسه سنا شهادت داد: “با پیشرفت این فناوری، ما متوجه می شویم که مردم نگران این هستند که چگونه می تواند نحوه زندگی ما را تغییر دهد. ما هم همینطور.”
آلتمن تشکیل یک آژانس آمریکایی یا جهانی را پیشنهاد کرد که مجوز قویترین سیستمهای هوش مصنوعی را صادر کند و این اختیار را داشته باشد که «آن مجوز را بگیرد و از مطابقت با استانداردهای ایمنی اطمینان حاصل کند».
استارت آپ او در سانفرانسیسکو پس از انتشار ChatGPT در اواخر سال گذشته مورد توجه عموم قرار گرفت. ChatGPT یک ابزار چت بات رایگان است که به سوالات با پاسخ های متقاعد کننده ای شبیه انسان پاسخ می دهد.
چیزی که به عنوان یک وحشت در میان مربیان در مورد استفاده از ChatGPT برای تقلب در تکالیف شروع شد، به نگرانی های گسترده تر در مورد توانایی جدیدترین ابزارهای “هوش مصنوعی مولد” برای گمراه کردن مردم، انتشار اکاذیب، نقض حمایت های حق چاپ و براندازی برخی مشاغل گسترش یافته است.
و در حالی که هیچ نشانه فوری وجود ندارد که کنگره قوانین جامع هوش مصنوعی را ایجاد کند، همانطور که قانونگذاران اروپایی انجام می دهند، نگرانی های اجتماعی اوایل این ماه آلتمن و سایر مدیران عامل فناوری را به کاخ سفید آورد و آژانس های آمریکایی را وادار کرد تا قول دهند که با هوش مصنوعی مضر سرکوب کنند. محصولاتی که حقوق مدنی موجود و قوانین حمایت از مصرف کننده را نقض می کنند.
سناتور ریچارد بلومنتال، دموکرات کانکتیکات که ریاست کمیته فرعی کمیته قضایی سنا در خصوص حریم خصوصی، فناوری و قانون را بر عهده دارد، جلسه استماع را با سخنرانی ضبط شده ای آغاز کرد که شبیه سناتور بود، اما در واقع یک شبیه سازی صوتی بود که در سخنرانی های بلومنتال آموزش دیده بود و در حال خواندن یک سخنرانی بود. سخنرانی توسط ChatGPT پس از اینکه او از چت بات خواست تا سخنان آغازین خود را بنویسد، نوشته شد.
بلومنتال گفت که نتیجه چشمگیر بود، اما او افزود: “اگر از آن می پرسیدم چه می شد و اگر تسلیم اوکراین یا رهبری ولادیمیر پوتین (رئیس جمهور روسیه) را تایید می کرد، چه می شد؟”
بلومنتال گفت که شرکتهای هوش مصنوعی باید قبل از انتشار سیستمهای خود را آزمایش کرده و خطرات شناخته شده را افشا کنند و نگرانی خاصی در مورد اینکه چگونه سیستمهای هوش مصنوعی آینده میتوانند بازار کار را بیثبات کنند، ابراز کرد.
آلتمن با فشار بر بدترین ترس خود در مورد هوش مصنوعی، بیشتر از جزئیات اجتناب می کرد. اما او بعداً پیشنهاد کرد که یک آژانس نظارتی جدید باید تدابیری را اعمال کند که مدلهای هوش مصنوعی را که میتوانند «خودتکثیر و نفوذ به طبیعت» را مسدود کنند – اشاره به نگرانیهای آیندهنگر در مورد سیستمهای هوش مصنوعی پیشرفته که میتوانند انسانها را برای واگذاری کنترل دستکاری کنند.
OpenAI که توسط آلتمن در سال 2015 با حمایت میلیاردر فناوری، ایلان ماسک با مأموریتی متمرکز بر ایمنی تأسیس شد، از یک آزمایشگاه تحقیقاتی غیرانتفاعی به یک تجارت تبدیل شده است. دیگر محصولات محبوب هوش مصنوعی آن از جمله سازنده تصویر DALL-E.
مایکروسافت میلیاردها دلار روی این استارتاپ سرمایه گذاری کرده است و فناوری خود را در محصولات خود از جمله موتور جستجوی بینگ خود ادغام کرده است.
آلتمن همچنین قصد دارد در این ماه یک تور جهانی را به پایتخت های ملی و شهرهای بزرگ در شش قاره آغاز کند تا درباره این فناوری با سیاست گذاران و مردم صحبت کند.
در آستانه شهادتش در سنا، او با ده ها قانونگذار آمریکایی شام خورد که چند تن از آنها به CNBC گفتند که تحت تاثیر اظهارات او قرار گرفتند.
همچنین کریستینا مونتگومری، افسر ارشد حریم خصوصی و اعتماد IBM و گری مارکوس، استاد بازنشسته در دانشگاه نیویورک که در میان گروهی از کارشناسان هوش مصنوعی بود که از OpenAI و دیگر شرکتهای فناوری خواستند تا توسعه مدلهای هوش مصنوعی قدرتمندتر خود را متوقف کنند، شهادت دادند. شش ماه به جامعه فرصت بیشتری برای بررسی خطرات داده شود.
این نامه پاسخی به انتشار آخرین مدل OpenAI، GPT-4 در ماه مارس بود که قدرتمندتر از ChatGPT توصیف شد.
جاش هاولی، سناتور جاش هاولی از میسوری، جمهوری خواه ارشد این پنل، گفت: «هوش مصنوعی به روشی که ما حتی نمی توانیم تصورش را هم بکنیم، دگرگون خواهد شد و پیامدهایی برای انتخابات، مشاغل و امنیت آمریکایی ها خواهد داشت.
“این استماع اولین گام مهم به سمت درک آنچه کنگره باید انجام دهد را نشان می دهد.”
تعدادی از رهبران صنعت فناوری گفتهاند که از نوعی نظارت بر هوش مصنوعی استقبال میکنند، اما نسبت به آنچه که بهعنوان قوانین بیش از حد سنگین میدانند هشدار دادهاند.
مونتگومری از IBM در نسخهای از اظهارات آماده شده خود، از کنگره میخواهد که رویکرد «تنظیم دقیق» را اتخاذ کند و با پیشنهادهای آلتمن و مارکوس برای تنظیمکنندهای متمرکز بر هوش مصنوعی مخالفت کرد.
مونتگومری گفت: «این به معنای ایجاد قوانینی برای کنترل استقرار هوش مصنوعی در موارد استفاده خاص است، نه تنظیم خود فناوری.