دولت بایدن نسبت به خطرات هوش مصنوعی هشدار داد. محدودیتی برای کارهایی که کاخ سفید می تواند انجام دهد وجود دارد.

واشنگتن- دولت بایدن با استفاده از هوش مصنوعی که به سرعت در حال گسترش است، مواجه است و نسبت به خطراتی که این فناوری برای امنیت عمومی، حریم خصوصی و دموکراسی ایجاد می کند، هشدار می دهد و در عین حال اختیارات محدودی برای تنظیم آن دارد.

کامالا هریس، معاون رئیس جمهور، که پنجشنبه با مدیران ارشد شرکت های پیشرو هوش مصنوعی گوگل، مایکروسافت دیدار کرد،

MSFT 0.33٪

OpenAI و Anthropic گفتند که این فناوری “پتانسیل افزایش چشمگیر تهدیدات برای ایمنی و امنیت، نقض حقوق مدنی و حریم خصوصی، و از بین بردن اعتماد عمومی و ایمان به دموکراسی را دارد.”

او افزود که شرکت ها موظف به رعایت قوانین موجود و همچنین مسئولیت اخلاقی، اخلاقی و قانونی برای تضمین ایمنی و امنیت محصولات خود هستند.

نشست کاخ سفید با اعلام 140 میلیون دلار هزینه جدید برای تحقیق و توسعه هوش مصنوعی برگزار شد. اما دولت فدرال برای تنظیم ابزارهایی مانند ChatGPT OpenAI که نگرانی هایی را در مورد حریم خصوصی، سوگیری و احتمال کلاهبرداری های گسترده و اطلاعات نادرست ایجاد کرده است، محدود است.

دولت بایدن هوش مصنوعی را فرصتی بزرگ برای ایالات متحده می داند، اما با خطرات قابل توجهی همراه است. برای مثال، دولت اشاره کرده است که سیستم‌هایی که برای کمک به مراقبت از بیمار طراحی شده‌اند، گاهی اوقات ناامن یا ناکارآمد هستند، در حالی که الگوریتم‌های مورد استفاده در استخدام یا وام دادن، نابرابری‌های موجود را بازتولید کرده یا حتی سوگیری‌ها و تبعیض‌های جدیدی ایجاد کرده‌اند.

اما تاکنون، دولت به دنبال این بوده است که مسئولیت تضمین امنیت عمومی را بر دوش شرکت‌هایی که این فناوری را توسعه می‌دهند، بگذارد.

برخی ناظران می گویند که این تا حدی نشان دهنده کمبود ابزارهایی است که کاخ سفید در حال حاضر برای تنظیم هوش مصنوعی دارد. این امر به‌ویژه برای دسته فناوری‌هایی که به عنوان هوش مصنوعی مولد شناخته می‌شوند، صادق است که قادر به تولید محتوای واقعی اما بالقوه خطرناک مانند تصاویر یا صدا است.

ابزارهای صوتی و تصویری جدید هوش مصنوعی می توانند شبیه شما باشند. اما آیا آنها می توانند خانواده یا بانک شما را فریب دهند؟ جوآنا استرن از WSJ خودش را با دوقلوی هوش مصنوعی خود جایگزین کرد تا بفهمد. تصویر تصویر: النا اسکاتی

رابرت وایزمن، رئیس Public Citizen، یک گروه منافع عمومی، در مورد هوش مصنوعی مولد، می‌گوید: «دولت فدرال ابزارهایی وجود دارد، اما عمدتاً نه. به عنوان مثال، رئیس جمهور بایدن تا زمانی که نرده‌های محافظ نظارتی ایجاد نشود، نمی‌تواند مهلت قانونی برای توسعه هوش مصنوعی اعمال کند.

این یک نگرانی خاص است زیرا در حالی که فناوری در حال تاخت و تاز است و خطرات اطلاعات نادرست و فروپاشی اجتماعی را به همراه دارد، شرکت‌ها «احساس می‌کنند که نمی‌توانند متوقف شوند، زیرا رقیب از آنها پیشی خواهد گرفت».

برخی از فن‌آوران برجسته، از جمله ایلان ماسک، با اشاره به نیاز به توسعه استانداردهای ایمنی، خواستار توقف توسعه هوش مصنوعی شده‌اند. یکی از دانشمندان برجسته گوگل اخیراً پست خود را ترک کرد، حرکتی که او به خبرنگاران توصیف کرد که به او اجازه می‌دهد آزادانه نگرانی‌های خود را درباره قابلیت‌های در حال گسترش این فناوری بیان کند.

شرکت‌ها در نشست روز چهارشنبه سرعت خود را کاهش نمی‌دهند. ChatGPT، ابزار گسترده ای که توسط OpenAI و مایکروسافت در دسترس است، گفته می شود که به ۱۰۰ میلیون کاربر رسیده است – سریعتر از هر برنامه مصرف کننده دیگری در تاریخ.

مایکروسافت، گوگل، اپن‌آی و آنتروپیک قبلاً گفته‌اند که به‌طور مداوم در حال به‌روزرسانی حفاظ‌های ایمنی هستند، مثلاً چت‌بات‌ها را در معرض بازبینی انسانی قرار می‌دهند یا آنها را برنامه‌ریزی می‌کنند تا به سؤالات خاصی پاسخ ندهند. شرکت ها استقبال کرده اند و به دنبال شکل دادن به مقررات جدید هستند.

رهبران صنعت شرکت کننده در جلسه روز پنجشنبه شامل ساندار پیچای، مدیرعامل گوگل و آلفابت بودند.،

GOOG -0.86٪

مدیر عامل مایکروسافت ساتیا نادلا، مدیر عامل OpenAI سام آلتمن و مدیر عامل آنتروپیک داریو آمودی. سخنگویان گوگل، OpenAI و مایکروسافت از اظهار نظر خودداری کردند. آنتروپیک بلافاصله درخواستی برای اظهار نظر نداد.

پس از پایان جلسه، کاخ سفید گفت که شرکت‌کنندگان در مورد نیاز به شفافیت شرکت، ایمنی، امنیت، و کارایی سیستم‌های هوش مصنوعی و ایمن نگه‌داشتن سیستم‌های هوش مصنوعی «در برابر عوامل مخرب و حملات» «بحثی صریح و سازنده» داشتند.

سال گذشته، کاخ سفید دستورالعمل‌هایی را با هدف محافظت از داده‌های شخصی در برابر سوء استفاده در الگوریتم‌های هوش مصنوعی، مانند مواردی که استخدام، وام‌دهی و سایر تصمیم‌های تجاری را هدایت می‌کنند، صادر کرد که توسط دولت آن زمان به عنوان «طرح‌نامه‌ای برای منشور حقوق هوش مصنوعی» توصیف شد. ” اما این دستورالعمل ها غیر الزام آور بودند و شامل اقدامات اجرایی نمی شدند.

علاوه بر 140 میلیون دلار هزینه جدید برای تحقیقات هوش مصنوعی توسط بنیاد ملی علوم، دولت این هفته همچنین تعهدات توسعه دهندگان برجسته هوش مصنوعی را برای شرکت در ارزیابی عمومی سیستم های هوش مصنوعی در کنوانسیون آینده اعلام کرد. این تمرین مستقل اطلاعات مهمی را در مورد تأثیرات این مدل‌ها در اختیار محققان و عموم قرار می‌دهد و شرکت‌ها و توسعه‌دهندگان هوش مصنوعی را قادر می‌سازد. [to] کاخ سفید گفت: اقداماتی را برای رفع مشکلات موجود در این مدل ها انجام دهید.

معاون رئیس جمهور کامالا هریس می گوید که شرکت های هوش مصنوعی “مسئولیت اخلاقی، اخلاقی و قانونی برای تضمین ایمنی و امنیت محصولات خود دارند.”


عکس:

کن سدنو/پرس پول

دفتر سیاست علم و فناوری کاخ سفید همچنین گفت که در حال آغاز تلاش برای جمع آوری اطلاعات بیشتر در مورد نحوه استفاده کارفرمایان از هوش مصنوعی برای ردیابی عملکرد کارگران است.

OSTP در یک پست وبلاگ گفت: “ردیابی مداوم عملکرد می تواند کارگران را وادار کند تا با سرعت زیادی در کار حرکت کنند و خطراتی برای ایمنی و سلامت روان آنها ایجاد کند.”

به‌طور جداگانه، سازمان‌های مجری قانون اخیراً بیانیه‌ای مشترک منتشر کرده‌اند که در آن تعهد خود را برای استفاده از مقامات قانونی موجود برای محافظت از مردم در برابر آسیب‌های مرتبط با هوش مصنوعی تأیید کردند.

مقاماتی که در جلسه روز پنجشنبه شرکت کردند شامل جف زینتز رئیس کارکنان کاخ سفید، جیک سالیوان مشاور امنیت ملی و جینا ریموندو وزیر بازرگانی بود.

تلاش فعلی کاخ سفید همچنین می‌تواند به ایجاد حرکت برای قانون‌گذاری که رهبران سنا در تلاش برای تدوین آن هستند کمک کند. چاک شومر، رهبر اکثریت سنا (D.، NY) ماه گذشته گفت که قصد دارد قوانینی را برای کمک به “شکل دادن و استفاده از این فناوری قدرتمند” اعمال کند.

برخی از جمهوری خواهان نیز علاقه خود را به قوانین هوش مصنوعی نشان می دهند که می تواند به ایالات متحده در رقابت اقتصادی با چین کمک کند.

اما مسیر هر قانون اساسی در کنگره فعلی بسیار نامشخص است، زیرا دموکرات‌ها سنا را اداره می‌کنند و جمهوری‌خواهان مجلس نمایندگان، و انتخابات ریاست‌جمهوری در آینده نزدیک است. آقای شومر روز پنجشنبه در مجلس سنا گفت: این سوال که چگونه می توان هوش مصنوعی را تنظیم کرد نیز پیچیده است.

او گفت: “این یک موضوع عمیق و دشوار است و به همین دلیل است که ما در حال حاضر با بسیاری از کارشناسان ملاقات می کنیم.”

به سابرینا صدیقی در [email protected] و جان دی مک کینون در [email protected] بنویسید.

حق نشر © 2022 Dow Jones & Company, Inc. کلیه حقوق محفوظ است. 87990cbe856818d5eddac44c7b1cdeb8