بازنویسی سیاست‌های نظامی گوگل در به‌کارگیری هوش مصنوعی

بازنویسی سیاست‌های نظامی گوگل در به‌کارگیری هوش مصنوعی

بر اساس آخرین گزارشات درباره‌ی سیاست‌های نظامی پروژه‌ی پنتاگون که منجر به اعتراضات گسترده و کناره‌گیری برخی از مسئولان در گوگل گردید، این شرکت اعلام کرده است برای ادامه‌ی مشارکت در پروژه‌های نظامی ، سیاست‌های اخلاقی را در این پروژه‌ها به کار خواهد گرفت.

سخنگوی گوگل اعلام کرد که این شرکت به بررسی بازخورد کارکنان و تهیه پیش‌نویس "مجموعه‌ای از اصول" در زمینه دفاع نظامی و قرارداد AI خواهد پرداخت. انتظار می‌رود جزئیات این سیاست در هفته‌های آینده اعلام شود.این پروژه که Maven نام دارد موضوع مورد بحث این روزها در گوگل است.

Fei-Fei Li، مدیر ارشد Google Cloud و سرپرست آزمایشگاه AI در دانشگاه استندفورد می‌گوید:" بهتر است از هرگونه هزینه در رابطه با به‌کارگیری AI در این پروژه جلوگیری کنید. استفاده از AI در تسلیحات نظامی یکی از حساس‌ترین موضوعات است که همکاری گوگل در این زمینه به حساسیت آن دامن می‌زند. نمی‌توان واکنش رسانه‌ها را وقتی بفهمند گوگل به‌صورت مخفیانه کاربرد هوش مصنوعی را در صنایع نظامی و دفاعی امکان پذیر نموده ، پیش بینی نمود. "

در این راستا مدیران شرکت DeepMind، و بنیانگذاران وابسته به شرکت گوگل از جمله مصطفی سلیمان، وارد بحث سیاسی درباره پروژه Maven با Pichai و سایر سهامداران شده‌اند. 

ازآنجایی‌که اعتصابات سال گذشته‌ی گوگل به مرحله‌ی حساسی رسیده بود ، Vint Cerf معاون بازرگانی گوگل برای جمع بندی پروژه در آوریل گذشته جلسه‌ای ترتیب داد که در آن به رفع معضلات و مشکلات ناشی از وضعیت پیش آمده بپردازند و دید واضحی از عملکردهای خود به مردم سراسر جهان بدهند. این کار کمی از نگرانی‌های کسانی که فکر می‌کردند گوگل در امر تسلیحات نظامی خیانت کرده است، کم کرد. 

Aileen Black ، یکی از مدیران اجرایی گوگل در واشنگتن می‌گوید : " ما می‌توانیم از سرویس‌های رایانش ابری در تسلیحات نظامی استفاده کنیم و از به‌کارگیری هوش مصنوعی در صنایع دفاعی پیش از آنکه دیر شود جلوگیری کنیم. "