بریتانیا موسسه ایمنی هوش مصنوعی خود را به سانفرانسیسکو گسترش میدهد تا از استعدادهای فنی منطقه خلیج استفاده کند و مشارکتهای جهانی ایمنی هوش مصنوعی را تقویت کند.
موسسه ایمنی هوش مصنوعی بریتانیا قرار است با یک مکان جدید در ایالات متحده در سطح بین المللی گسترش یابد ، در 20 می ، میشل دونلان وزیر فناوری بریتانیا اعلام کرد که این موسسه اولین دفتر خارج از کشور خود را در تابستان در سانفرانسیسکو افتتاح خواهد کرد ، در این اطلاعیه آمده است که انتخاب استراتژیک یک دفتر در سانفرانسیسکو به بریتانیا این امکان را می دهد که از ثروت استعدادهای فناوری موجود در منطقه خلیج استفاده کند و در کنار آن با یکی از بزرگترین آزمایشگاه های هوش مصنوعی (AI) جهان واقع در بین لندن تعامل کند ، علاوه بر این ، این شرکت گفت که این اقدام به تقویت روابط با بازیگران کلیدی در ایالات متحده کمک میکند تا امنیت جهانی هوش مصنوعی را برای منافع عمومی تقویت کنند.
در حال حاضر ، شعبه لندن موسسه ایمنی هوش مصنوعی دارای یک تیم 30 نفره است که در مسیر توسعه و کسب تخصص بیشتر هستند ، به ویژه در ارزیابی ریسک برای مدلهای هوش مصنوعی مرزی ، دونلان گفت که این توسعه نشان دهنده رهبری و چشم انداز بریتانیا برای ایمنی هوش مصنوعی در عمل کرده است ، این یک لحظه مهم در توانایی بریتانیا برای مطالعه خطرات و پتانسیل هوش مصنوعی از یک لنز جهانی است ، همکاری ما با ایالات متحده را تقویت می کند و راه را برای سایر کشورها هموار می کند تا از تخصص ما بهره ببرند ، همانطور که ما به رهبری جهان ادامه می دهیم ، این نشست پس از نشست برجسته ایمنی هوش مصنوعی بریتانیا ، که در نوامبر 2023 در لندن برگزار شد ، اولین اجلاس از نوع خود بود که بر ایمنی هوش مصنوعی در مقیاس جهانی تمرکز کرد ، در این رویداد رهبرانی از سراسر جهان ، از جمله از ایالات متحده و چین با صداهای پیشرو در فضای هوش مصنوعی ، از جمله رئیس مایکروسافت ، برد اسمیت مدیر عامل OpenAI ، سام آلتمن مدیر عامل گوگل و ایلان ماسک به خود می بالید.
در این آخرین اعلامیه ، بریتانیا همچنین گفت که مجموعهای از نتایج اخیر موسسه از آزمایش ایمنی انجام شده بر روی پنج مدل هوش مصنوعی پیشرفته در دسترس عموم را منتشر میکند ، این مدلها را ناشناس اعلام کرد و گفت که نتایج بهجای اینکه آنها را بهعنوان ایمن یا ناامن معرفی کنند ، عکس فوری از قابلیتهای مدلها ارائه میدهند ، بخشی از یافتهها شامل این بود که چندین مدل میتوانند چالشهای امنیت سایبری را تکمیل کنند ، اگرچه برخی دیگر با مدلهای پیشرفتهتر مبارزه کردند ، چندین مدل دارای دانش سطح دکترا از شیمی و زیست شناسی بودند ، نتیجه گیری شد که همه مدل های آزمایش شده در برابر جیلبریک های اولیه بسیار آسیب پذیر هستند و مدل های آزمایش شده قادر به تکمیل وظایف پیچیده و وقت گیر بدون نظارت انسان نیستند.
ایان هوگرث ، رئیس این موسسه گفت که این ارزیابیها به ارزیابی تجربی قابلیتهای مدل کمک میکند ، ایمنی هوش مصنوعی هنوز یک زمینه بسیار جوان و در حال ظهور است ، این نتایج تنها بخش کوچکی از رویکرد ارزیابی را نشان میدهد که AISI در حال توسعه است.
نظر بدهید