مقامات G7 هفته آینده اولین نشست خود را در مورد مقررات هوش مصنوعی برگزار می کنند و به نگرانی ها در مورد ابزارهای مشابه ChatGPT می پردازند.

ژاپن روز جمعه اعلام کرد که مقامات گروه هفت (G7) هفته آینده برای بررسی مشکلات ناشی از ابزارهای هوش مصنوعی مولد مانند ChatGPT ملاقات خواهند کرد.

رهبران G7 که شامل ایالات متحده، اتحادیه اروپا و ژاپن است، هفته گذشته با ایجاد یک انجمن بین دولتی به نام «فرآیند هوش مصنوعی هیروشیما» برای بحث در مورد موضوعات پیرامون ابزارهای هوش مصنوعی به سرعت در حال رشد، موافقت کردند.

وزیر ارتباطات ژاپن، تاکاکی ماتسوموتو، گفت که مقامات دولتی G7 اولین جلسه هوش مصنوعی در سطح کاری را در 30 می برگزار خواهند کرد و موضوعاتی مانند حفاظت از مالکیت معنوی، اطلاعات نادرست و نحوه اداره فناوری را بررسی خواهند کرد.

این جلسه در حالی برگزار می‌شود که تنظیم‌کننده‌های فناوری در سراسر جهان تأثیر سرویس‌های هوش مصنوعی محبوب مانند ChatGPT توسط OpenAI تحت حمایت مایکروسافت را ارزیابی می‌کنند.

اتحادیه اروپا در حال نزدیک‌تر شدن به تصویب اولین قانون اساسی جهان در مورد هوش مصنوعی است که الهام‌بخش دولت‌های دیگر است تا در نظر بگیرند که چه قوانینی باید برای ابزارهای هوش مصنوعی اعمال شود.

ماتسوموتو گفت که ژاپن به عنوان رئیس امسال G7 "مذاکرات G7 در مورد استفاده پاسخگو از فناوری هوش مصنوعی مولد را رهبری خواهد کرد" و افزود که مجمع امیدوار است تا پایان سال پیشنهاداتی را برای سران کشورها ارائه دهد.

در نشست هفته گذشته هیروشیما G7، رهبران همچنین خواستار توسعه و پذیرش استانداردهای فنی بین‌المللی برای حفظ هوش مصنوعی «قابل اعتماد» و «همراستا با ارزش‌های دموکراتیک مشترک» شدند.

ماتسوموتو در یک کنفرانس مطبوعاتی منظم گفت که گروه کاری G7 AI به دنبال نظرات سازمان همکاری اقتصادی و توسعه خواهد بود.  

© تامسون رویترز 2023


Google I/O 2023 شاهد بودیم که غول جستجو به طور مکرر به ما گفت که به هوش مصنوعی اهمیت می دهد، در کنار عرضه اولین تلفن تاشو و تبلت با برند پیکسل. امسال این شرکت قصد دارد خود را سوپرشارژ کند apps، خدمات و سیستم عامل اندروید با فناوری هوش مصنوعی. ما در مورد این و موارد بیشتر در Orbital، پادکست Gadgets 360 بحث می کنیم. Orbital در دسترس است Spotify, گانا, جیواساون, پادکست های Google, پادکست های اپل, آمازون موسیقی و هر کجا پادکست خود را دریافت می کنید.
پیوندهای وابسته ممکن است به طور خودکار ایجاد شوند - برای جزئیات بیشتر به بیانیه اخلاقی ما مراجعه کنید.

منبع