خطرات هوش مصنوعی از دید Andrew


خطر انقراض؟ درکش نیمکنم! دانشمندان برجسته کامپیوتر میترسند که هوش مصنوعی باعث انقراض بشر بشه. وقتش هست که بیاییم در مورد خطرات هوش مصنوعی به صورت واقع بینانه ای صحبت کنیم.

هفته پیش، سایت safe.org اعلام کرد که: کاهش خطر انقراض توسط هوش مصنوعی بایستی در کنار سایر خطرات در مقیاس اجتماعی مثل جنگ هسته ای، بیماریهای همه گیر یک اولویت جهانی باشد.

این بیانیه توسط دانشمندان هوش مصنوعی از قبیل Yoshua Bengio  و  Geoffrey Hinton که برای من بسیار محترم هستند امضا شد و بازتاب رسانه ای گسترده ای داشت.

Yoshua Bengio و Geoffrey Hinton

باید اعتراف کنم که خیلی سخت تلاش میکنم بدانم که هوش مصنوعی چطور میتواند خطرات معناداری برانقراض ما داشته باشد. هوش مصنوعی خطراتی مثل تبعیض، بی عدالتی، خروجی های نادرست، جابجایی مشاغل و تمرکز قدرت را دارد. اما من تاثیر خالص هوش مصنوعی را به عنوان یک کمک بزرگ به جامعه می بینم.  این امر با بهبود مراقبت‌های بهداشتی و ایمن‌تر کردن خودروها، بهبود آموزش، مقرون‌به‌صرفه‌تر کردن غذای سالم و بسیاری از کالاها و خدمات دیگر و دموکراتیک کردن دسترسی به اطلاعات، جان انسان‌ها را نجات می‌دهد. من نمی دانم چگونه می تواند منجر به انقراض انسان شود. تعدادی از مفسران متفکر نیز خطر انقراض توسط هوش مصنوعی رو رد کرده اند.

Chris Manning اشاره میکند که جامعه هوش مصنوعی اکثریت بزرگ و آرامی دارد که روی ساختن نرم‌افزارهای مفید متمرکز شده‌اند و نظرات جمعیت پر سر و صدای ایمنی هوش مصنوعی را که درباره خطرات انقراض صحبت می‌کنند، به اشتراک نمی‌گذارند. معتقد است خطرات را می توان کاهش داد.

Emily Bender اشاره میکند که نابودی توسط هوش مصنوعی یک حواس پرتی بزرگ از درک خطرات واقعی این تکنولوژی است. خطراتی مثل «تبعیض، نظارت، آلودگی اکوسیستم اطلاعات، سرقت داده‌ها، استثمار نیروی کار» خطرات واقعی هوش مصنوعی میداند.

در همین راستا، Matteo Wong  استدلال می‌کند که ” ویرانگر خواندن هوش مصنوعی یک طعمه است. .” به نظر من زمانی که قانون‌گذارها برای جلوگیری از پرتاپ خودکار سلاحهای هسته ای توسط هوش مصنوعی صرف می‌کنند -که هیچ قدرت هسته ای علناً به آن توجه نکرده است- همان زمانی است که آن‌ها قوانین مربوط به حفظ حریم خصوصی داده‌ها، شفافیت هوش مصنوعی یا ضد اعتماد صرف نمی‌کنند. که برای شرکت‌های فناوری کمتر راحت است و ممکن است بر درآمد آنها تأثیر منفی بگذارد.

Marc Andreessen یک مقاله از مزیتهای هوش مصنوعی نوشته است. با اینکه من در برخی نکات با او دید متفاوتی دارم، (برای مثال، من نسبت به ایشون بیشتر نگران تاثیر منفی جابجایی شغل توسط هوش مصنوعی هستم). او استدلال درستی می کند که هر بار که یک فناوری جدید معرفی شده است، یک وحشت اخلاقی قابل پیش بینی به وجود آمده است. ( در pessimistsarchive.org به مثالهای خیلی خوبی در اینباره استناد شده است و ارزش خوندن رو داره.) که ترس از رمان‌های غیرداستانی که جوانان را فاسد می‌کنند، آسانسورهایی که باعث تب مغزی می‌شوند، ماشین‌ها (“واگن شیطان”) در مأموریتی برای نابود کردن جهان، و صدای ضبط شده که به نوزادان آسیب می رساند.  با ظهور یادگیری عمیق حدود 10 سال پیش، ایلان ماسک، بیل گیتس و استیون هاوکینگ در مورد خطر انقراض ناشی از هوش مصنوعی هشدار دادند. موج کنونی ترس ها در مورد هوش مصنوعی برای من شبیه همین هاست، اما شدیدتر!  که دانشمندان برجسته را جذب می کند.

خوشحالم که می بینم دیگران جایگزین معقولی برای روایت هوش مصنوعی به عنوان خطر انقراض ارائه می کنند. با این حال، من احساس مسئولیت اخلاقی می‌کنم که ذهنی باز داشته باشم و مطمئن شوم که واقعاً خطر را درک می‌کنم – به‌ویژه با توجه به احترام زیادی که برای برخی که فکر می‌کنند هوش مصنوعی این خطر را ایجاد می‌کند، قائل هستم.


دیدگاه ها

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

code

1 دیدگاه

  1. رضا

    همین گسترش استفاده از هوش مصنوعی در فعالیت های نظامی اگر ادامه پیدا کنه ابتدای کار بهبود چشم گیری میده ولی چه اتفاقی در آینده خواهد افتاد. پیشرفت این فناوری در ۱۰ سال اخیر خیلی سریع بوده و تمام باور هایی که یک هوش مصنوعی قادر به انجام فلان کار نیست را داره تحت تاثیر میزاره و قطعا این روند ادامه پیدا خواهد کرد. همچنین با پیشرفت های اخیر امکان کشت سلول هایی با قابلیت یادگیری با بهره برداری از سلول های بنیادی وجود داره، شما فکر کن عملا چند سال دیگه میشه فرانکشتاین ساخت