

واشنگتن- دولت بایدن با استفاده از هوش مصنوعی که به سرعت در حال گسترش است، مواجه است و نسبت به خطراتی که این فناوری برای امنیت عمومی، حریم خصوصی و دموکراسی ایجاد می کند، هشدار می دهد و در عین حال اختیارات محدودی برای تنظیم آن دارد.
کامالا هریس، معاون رئیس جمهور، که پنجشنبه با مدیران ارشد شرکت های پیشرو هوش مصنوعی گوگل، مایکروسافت دیدار کرد،
MSFT 0.33٪
OpenAI و Anthropic گفتند که این فناوری “پتانسیل افزایش چشمگیر تهدیدات برای ایمنی و امنیت، نقض حقوق مدنی و حریم خصوصی، و از بین بردن اعتماد عمومی و ایمان به دموکراسی را دارد.”
او افزود که شرکت ها موظف به رعایت قوانین موجود و همچنین مسئولیت اخلاقی، اخلاقی و قانونی برای تضمین ایمنی و امنیت محصولات خود هستند.
نشست کاخ سفید با اعلام 140 میلیون دلار هزینه جدید برای تحقیق و توسعه هوش مصنوعی برگزار شد. اما دولت فدرال برای تنظیم ابزارهایی مانند ChatGPT OpenAI که نگرانی هایی را در مورد حریم خصوصی، سوگیری و احتمال کلاهبرداری های گسترده و اطلاعات نادرست ایجاد کرده است، محدود است.
دولت بایدن هوش مصنوعی را فرصتی بزرگ برای ایالات متحده می داند، اما با خطرات قابل توجهی همراه است. برای مثال، دولت اشاره کرده است که سیستمهایی که برای کمک به مراقبت از بیمار طراحی شدهاند، گاهی اوقات ناامن یا ناکارآمد هستند، در حالی که الگوریتمهای مورد استفاده در استخدام یا وام دادن، نابرابریهای موجود را بازتولید کرده یا حتی سوگیریها و تبعیضهای جدیدی ایجاد کردهاند.
اما تاکنون، دولت به دنبال این بوده است که مسئولیت تضمین امنیت عمومی را بر دوش شرکتهایی که این فناوری را توسعه میدهند، بگذارد.
برخی ناظران می گویند که این تا حدی نشان دهنده کمبود ابزارهایی است که کاخ سفید در حال حاضر برای تنظیم هوش مصنوعی دارد. این امر بهویژه برای دسته فناوریهایی که به عنوان هوش مصنوعی مولد شناخته میشوند، صادق است که قادر به تولید محتوای واقعی اما بالقوه خطرناک مانند تصاویر یا صدا است.
ابزارهای صوتی و تصویری جدید هوش مصنوعی می توانند شبیه شما باشند. اما آیا آنها می توانند خانواده یا بانک شما را فریب دهند؟ جوآنا استرن از WSJ خودش را با دوقلوی هوش مصنوعی خود جایگزین کرد تا بفهمد. تصویر تصویر: النا اسکاتی
رابرت وایزمن، رئیس Public Citizen، یک گروه منافع عمومی، در مورد هوش مصنوعی مولد، میگوید: «دولت فدرال ابزارهایی وجود دارد، اما عمدتاً نه. به عنوان مثال، رئیس جمهور بایدن تا زمانی که نردههای محافظ نظارتی ایجاد نشود، نمیتواند مهلت قانونی برای توسعه هوش مصنوعی اعمال کند.
این یک نگرانی خاص است زیرا در حالی که فناوری در حال تاخت و تاز است و خطرات اطلاعات نادرست و فروپاشی اجتماعی را به همراه دارد، شرکتها «احساس میکنند که نمیتوانند متوقف شوند، زیرا رقیب از آنها پیشی خواهد گرفت».
برخی از فنآوران برجسته، از جمله ایلان ماسک، با اشاره به نیاز به توسعه استانداردهای ایمنی، خواستار توقف توسعه هوش مصنوعی شدهاند. یکی از دانشمندان برجسته گوگل اخیراً پست خود را ترک کرد، حرکتی که او به خبرنگاران توصیف کرد که به او اجازه میدهد آزادانه نگرانیهای خود را درباره قابلیتهای در حال گسترش این فناوری بیان کند.
شرکتها در نشست روز چهارشنبه سرعت خود را کاهش نمیدهند. ChatGPT، ابزار گسترده ای که توسط OpenAI و مایکروسافت در دسترس است، گفته می شود که به ۱۰۰ میلیون کاربر رسیده است – سریعتر از هر برنامه مصرف کننده دیگری در تاریخ.
مایکروسافت، گوگل، اپنآی و آنتروپیک قبلاً گفتهاند که بهطور مداوم در حال بهروزرسانی حفاظهای ایمنی هستند، مثلاً چتباتها را در معرض بازبینی انسانی قرار میدهند یا آنها را برنامهریزی میکنند تا به سؤالات خاصی پاسخ ندهند. شرکت ها استقبال کرده اند و به دنبال شکل دادن به مقررات جدید هستند.
رهبران صنعت شرکت کننده در جلسه روز پنجشنبه شامل ساندار پیچای، مدیرعامل گوگل و آلفابت بودند.،
GOOG -0.86٪
مدیر عامل مایکروسافت ساتیا نادلا، مدیر عامل OpenAI سام آلتمن و مدیر عامل آنتروپیک داریو آمودی. سخنگویان گوگل، OpenAI و مایکروسافت از اظهار نظر خودداری کردند. آنتروپیک بلافاصله درخواستی برای اظهار نظر نداد.
پس از پایان جلسه، کاخ سفید گفت که شرکتکنندگان در مورد نیاز به شفافیت شرکت، ایمنی، امنیت، و کارایی سیستمهای هوش مصنوعی و ایمن نگهداشتن سیستمهای هوش مصنوعی «در برابر عوامل مخرب و حملات» «بحثی صریح و سازنده» داشتند.
سال گذشته، کاخ سفید دستورالعملهایی را با هدف محافظت از دادههای شخصی در برابر سوء استفاده در الگوریتمهای هوش مصنوعی، مانند مواردی که استخدام، وامدهی و سایر تصمیمهای تجاری را هدایت میکنند، صادر کرد که توسط دولت آن زمان به عنوان «طرحنامهای برای منشور حقوق هوش مصنوعی» توصیف شد. ” اما این دستورالعمل ها غیر الزام آور بودند و شامل اقدامات اجرایی نمی شدند.
علاوه بر 140 میلیون دلار هزینه جدید برای تحقیقات هوش مصنوعی توسط بنیاد ملی علوم، دولت این هفته همچنین تعهدات توسعه دهندگان برجسته هوش مصنوعی را برای شرکت در ارزیابی عمومی سیستم های هوش مصنوعی در کنوانسیون آینده اعلام کرد. این تمرین مستقل اطلاعات مهمی را در مورد تأثیرات این مدلها در اختیار محققان و عموم قرار میدهد و شرکتها و توسعهدهندگان هوش مصنوعی را قادر میسازد. [to] کاخ سفید گفت: اقداماتی را برای رفع مشکلات موجود در این مدل ها انجام دهید.
معاون رئیس جمهور کامالا هریس می گوید که شرکت های هوش مصنوعی “مسئولیت اخلاقی، اخلاقی و قانونی برای تضمین ایمنی و امنیت محصولات خود دارند.”
عکس:
کن سدنو/پرس پول
دفتر سیاست علم و فناوری کاخ سفید همچنین گفت که در حال آغاز تلاش برای جمع آوری اطلاعات بیشتر در مورد نحوه استفاده کارفرمایان از هوش مصنوعی برای ردیابی عملکرد کارگران است.
OSTP در یک پست وبلاگ گفت: “ردیابی مداوم عملکرد می تواند کارگران را وادار کند تا با سرعت زیادی در کار حرکت کنند و خطراتی برای ایمنی و سلامت روان آنها ایجاد کند.”
بهطور جداگانه، سازمانهای مجری قانون اخیراً بیانیهای مشترک منتشر کردهاند که در آن تعهد خود را برای استفاده از مقامات قانونی موجود برای محافظت از مردم در برابر آسیبهای مرتبط با هوش مصنوعی تأیید کردند.
مقاماتی که در جلسه روز پنجشنبه شرکت کردند شامل جف زینتز رئیس کارکنان کاخ سفید، جیک سالیوان مشاور امنیت ملی و جینا ریموندو وزیر بازرگانی بود.
تلاش فعلی کاخ سفید همچنین میتواند به ایجاد حرکت برای قانونگذاری که رهبران سنا در تلاش برای تدوین آن هستند کمک کند. چاک شومر، رهبر اکثریت سنا (D.، NY) ماه گذشته گفت که قصد دارد قوانینی را برای کمک به “شکل دادن و استفاده از این فناوری قدرتمند” اعمال کند.
برخی از جمهوری خواهان نیز علاقه خود را به قوانین هوش مصنوعی نشان می دهند که می تواند به ایالات متحده در رقابت اقتصادی با چین کمک کند.
اما مسیر هر قانون اساسی در کنگره فعلی بسیار نامشخص است، زیرا دموکراتها سنا را اداره میکنند و جمهوریخواهان مجلس نمایندگان، و انتخابات ریاستجمهوری در آینده نزدیک است. آقای شومر روز پنجشنبه در مجلس سنا گفت: این سوال که چگونه می توان هوش مصنوعی را تنظیم کرد نیز پیچیده است.
او گفت: “این یک موضوع عمیق و دشوار است و به همین دلیل است که ما در حال حاضر با بسیاری از کارشناسان ملاقات می کنیم.”
به سابرینا صدیقی در [email protected] و جان دی مک کینون در [email protected] بنویسید.
حق نشر © 2022 Dow Jones & Company, Inc. کلیه حقوق محفوظ است. 87990cbe856818d5eddac44c7b1cdeb8