دولت بایدن قوانین احتمالی را برای ابزارهای هوش مصنوعی مانند ChatGPT می سنجد

واشنگتن- در بحبوحه نگرانی های فزاینده مبنی بر اینکه این فناوری می تواند برای تبعیض یا انتشار اطلاعات مضر مورد استفاده قرار گیرد، دولت بایدن بررسی هایی را آغاز کرده است که آیا باید روی ابزارهای هوش مصنوعی مانند ChatGPT بررسی شود.

در اولین گام به سمت مقررات بالقوه، وزارت بازرگانی روز سه شنبه یک درخواست عمومی رسمی برای اظهار نظر در مورد آنچه که اقدامات پاسخگویی نامید، ارائه کرد. از جمله اینکه آیا مدل‌های بالقوه خطرناک هوش مصنوعی باید قبل از عرضه، فرآیند صدور گواهینامه را طی کنند.

اقدام دولت در بحبوحه رونق استفاده از ابزارهای هوش مصنوعی انجام می شود که می توانند به سرعت نوشته ها، تصاویر، ویدئوها و موارد دیگر مانند انسان تولید کنند. ChatGPT، ربات چت مایکروسافت شرکت

MSFT -0.76٪

برخی از تحلیلگران تخمین زده اند که استارتاپ OpenAI با پشتیبانی از آن، به 100 میلیون کاربر سریعتر از هر اپلیکیشن مصرفی در تاریخ رسیده است.

آلن دیویدسون، مدیر اداره ملی مخابرات و اطلاعات، وزارت بازرگانی، گفت: «مشاهده اینکه این ابزارها حتی در دوران ابتدایی نسبی خود چه کاری می توانند انجام دهند شگفت انگیز است. آژانس که درخواست اظهار نظر را مطرح کرد. ما می دانیم که باید برخی از نرده های محافظ را در جای خود قرار دهیم تا مطمئن شویم که از آنها به طور مسئولانه استفاده می شود.

آقای دیویدسون گفت که نظرات، که طی 60 روز آینده پذیرفته خواهند شد، برای کمک به تدوین مشاوره به سیاست گذاران ایالات متحده در مورد نحوه نزدیک شدن به هوش مصنوعی استفاده خواهند شد. او افزود که مأموریت قانونی آژانسش شامل مشاوره به رئیس جمهور در مورد سیاست های فناوری است، نه نوشتن یا اجرای مقررات.

مقامات صنعتی و دولتی نسبت به طیف وسیعی از آسیب‌های بالقوه هوش مصنوعی، از جمله استفاده از این فناوری برای ارتکاب جنایت یا نشر اکاذیب ابراز نگرانی کرده‌اند.

زمانی که سناتور مایکل بنت ماه گذشته به چندین شرکت هوش مصنوعی نوشت، در مورد آزمایش‌های عمومی که در آن چت‌بات‌ها توصیه‌های نگران‌کننده‌ای را به کاربرانی که خود را به عنوان افراد جوان نشان می‌دهند، می‌پرسیدند، ایمنی کودکان مهم‌ترین موضوع بود.

سناتور ریچارد بلومنتال (D.، Conn.) در مصاحبه ای گفت: “مکالمه های بسیار فعالی در مورد مواد منفجره خوب و بدی که هوش مصنوعی می تواند انجام دهد در حال انجام است.” این برای کنگره، چالش نهایی است – بسیار پیچیده و فنی، مخاطرات بسیار مهم و فوریت فوق العاده.»

رهبران فناوری از جمله ایلان ماسک اخیراً خواستار توقف شش ماهه توسعه سیستم‌های قدرتمندتر از GPT-4 شدند، نسخه‌ای از چت بات OpenAI که حدود یک ماه پیش منتشر شد. آنها هشدار دادند که یک مسابقه در حال گسترش بین OpenAI و رقبایی مانند Alphabet شرکت

گوگل بدون مدیریت و برنامه ریزی کافی در مورد خطرات احتمالی رخ می داد.

پرزیدنت بایدن هفته گذشته این موضوع را با یک شورای مشورتی از دانشمندان در کاخ سفید مورد بحث قرار داد. آقای بایدن در پاسخ به سوال خبرنگاری که آیا این فناوری خطرناک است، گفت: «باید دید. میتوانست باشد.”

تصویر تصویر: پرستون جسی برای وال استریت ژورنال

در میان افرادی که در گروه مشاوره حضور داشتند، نمایندگان مایکروسافت و گوگل نیز حضور داشتند. آن‌ها و سایر شرکت‌هایی که سیستم‌های هوش مصنوعی را منتشر می‌کنند، گفته‌اند که دائماً در حال به‌روزرسانی نرده‌های ایمنی هستند، مانند برنامه‌نویسی ربات‌های چت برای پاسخ ندادن به سؤالات خاص.

در برخی موارد، شرکت ها استقبال کرده اند و به دنبال شکل دادن به مقررات جدید بوده اند.

OpenAI در یک پست وبلاگ اخیر گفت: “ما معتقدیم که سیستم های هوش مصنوعی قدرتمند باید در معرض ارزیابی های ایمنی دقیق قرار گیرند.” مقررات لازم است تا اطمینان حاصل شود که چنین شیوه‌هایی اتخاذ می‌شوند و ما فعالانه با دولت‌ها در بهترین شکلی که چنین مقرراتی می‌تواند داشته باشد، تعامل داریم.»

نماینده نانسی میس (رئیس کالیفرنیا)، رئیس پانل کمیته نظارت مجلس در مورد فناوری، ماه گذشته جلسه استماع هوش مصنوعی را با بیانیه ای سه دقیقه ای در مورد خطرات و مزایای هوش مصنوعی افتتاح کرد. سپس او افزود: “همه آنچه که در بیانیه آغازین خود گفتم، درست حدس زده اید که توسط ChatGPT نوشته شده است.”

به قول خودش، خانم میس از شاهدان پرسید که آیا صنعت با توسعه هوش مصنوعی خیلی سریع پیش می رود؟ آیا ما قادر به توسعه هوش مصنوعی هستیم که می تواند موجودیت بشریت را به خطر بیندازد؟ او گفت. “یا این فقط علمی تخیلی است؟”

یکی از شاهدان، اریک اشمیت، مدیر اجرایی سابق گوگل که ریاست کمیسیون کنگره در مورد پیامدهای امنیت ملی هوش مصنوعی را بر عهده داشت، گفت: «همه بر این باورند که هوش مصنوعی که ما می‌سازیم همان چیزی است که در فیلم‌های ترمیناتور می‌بینند و ما دقیقاً چنین هستیم. نه ساختن آن چیزها.”

آقای اشمیت گفت که کنگره باید بر پرورش استعدادها و نوآوری تمرکز کند. او به قانونگذاران گفت: “اجازه دهید نبوغ آمریکایی، دانشمندان آمریکایی، دولت آمریکا، شرکت های آمریکایی این آینده را اختراع کنند، و ما به چیزی نزدیک به آنچه می خواهیم می رسیم.” “و سپس شما بچه ها می توانید روی لبه هایی که سوء استفاده دارید کار کنید.”

نماینده جری کانولی (D., Va.) نسبت به توانایی کنگره برای اتخاذ قوانین هوش مصنوعی ابراز تردید کرد و به عدم اقدام آن برای رسیدگی به “قدرت شگفت انگیز” که شرکت های رسانه های اجتماعی در اختیار دارند اشاره کرد.

افکار خود را به اشتراک بگذارید

ابزارهای هوش مصنوعی چگونه باید تنظیم شوند؟ به گفتگوی زیر بپیوندید.

او گفت: «بدون هیچ گونه مداخله ای از سوی دولت، آنها انواع تصمیمات گسترده را از نظر محتوایی، از نظر اینکه چه چیزی مجاز است یا نمی شود، از نظر اینکه چه کسی می تواند از آن استفاده کند، می گیرند. “چرا باید باور کنیم که هوش مصنوعی بسیار متفاوت است؟”

در غیاب قانون فدرال متمرکز بر سیستم های هوش مصنوعی، برخی از سازمان های دولتی از سایر مراجع قانونی استفاده کرده اند.

تنظیم‌کننده‌های بخش مالی بررسی کرده‌اند که چگونه وام‌دهندگان ممکن است از هوش مصنوعی برای گرفتن وام‌ها استفاده کنند، با توجه به جلوگیری از تبعیض علیه گروه‌های اقلیت.

بخش ضد انحصار وزارت دادگستری گفته است که رقابت در این بخش را زیر نظر دارد، در حالی که کمیسیون تجارت فدرال به شرکت‌ها هشدار داده است که ممکن است با عواقب قانونی برای ادعاهای نادرست یا غیرمستند در مورد محصولات هوش مصنوعی مواجه شوند.

در سند نظر عمومی منتشر شده در روز سه شنبه، آژانس مشاوره فناوری فدرال این سوال را مطرح کرد که آیا باید اقداماتی را برای اطمینان از اعتماد عمومی به سیستم های هوش مصنوعی، مانند “گواهینامه های تضمین کیفیت” اضافه کرد.

در این سند سؤال شد که آیا قوانین یا مقررات جدید باید اعمال شوند یا خیر، اما از بیان جزئیات آسیب‌های احتمالی یا تأیید هرگونه حفاظت خاص خودداری کرد.

به رایان تریسی در [email protected] بنویسید

حق نشر © 2022 Dow Jones & Company, Inc. کلیه حقوق محفوظ است. 87990cbe856818d5eddac44c7b1cdeb8