خطرات هوش مصنوعی از دید Andrew
خطر انقراض؟ درکش نیمکنم! دانشمندان برجسته کامپیوتر میترسند که هوش مصنوعی باعث انقراض بشر بشه. وقتش هست که بیاییم در مورد خطرات هوش مصنوعی به صورت واقع بینانه ای صحبت کنیم.
هفته پیش، سایت safe.org اعلام کرد که: کاهش خطر انقراض توسط هوش مصنوعی بایستی در کنار سایر خطرات در مقیاس اجتماعی مثل جنگ هسته ای، بیماریهای همه گیر یک اولویت جهانی باشد.
این بیانیه توسط دانشمندان هوش مصنوعی از قبیل Yoshua Bengio و Geoffrey Hinton که برای من بسیار محترم هستند امضا شد و بازتاب رسانه ای گسترده ای داشت.
باید اعتراف کنم که خیلی سخت تلاش میکنم بدانم که هوش مصنوعی چطور میتواند خطرات معناداری برانقراض ما داشته باشد. هوش مصنوعی خطراتی مثل تبعیض، بی عدالتی، خروجی های نادرست، جابجایی مشاغل و تمرکز قدرت را دارد. اما من تاثیر خالص هوش مصنوعی را به عنوان یک کمک بزرگ به جامعه می بینم. این امر با بهبود مراقبتهای بهداشتی و ایمنتر کردن خودروها، بهبود آموزش، مقرونبهصرفهتر کردن غذای سالم و بسیاری از کالاها و خدمات دیگر و دموکراتیک کردن دسترسی به اطلاعات، جان انسانها را نجات میدهد. من نمی دانم چگونه می تواند منجر به انقراض انسان شود. تعدادی از مفسران متفکر نیز خطر انقراض توسط هوش مصنوعی رو رد کرده اند.
Chris Manning اشاره میکند که جامعه هوش مصنوعی اکثریت بزرگ و آرامی دارد که روی ساختن نرمافزارهای مفید متمرکز شدهاند و نظرات جمعیت پر سر و صدای ایمنی هوش مصنوعی را که درباره خطرات انقراض صحبت میکنند، به اشتراک نمیگذارند. معتقد است خطرات را می توان کاهش داد.
Emily Bender اشاره میکند که نابودی توسط هوش مصنوعی یک حواس پرتی بزرگ از درک خطرات واقعی این تکنولوژی است. خطراتی مثل «تبعیض، نظارت، آلودگی اکوسیستم اطلاعات، سرقت دادهها، استثمار نیروی کار» خطرات واقعی هوش مصنوعی میداند.
در همین راستا، Matteo Wong استدلال میکند که ” ویرانگر خواندن هوش مصنوعی یک طعمه است. .” به نظر من زمانی که قانونگذارها برای جلوگیری از پرتاپ خودکار سلاحهای هسته ای توسط هوش مصنوعی صرف میکنند -که هیچ قدرت هسته ای علناً به آن توجه نکرده است- همان زمانی است که آنها قوانین مربوط به حفظ حریم خصوصی دادهها، شفافیت هوش مصنوعی یا ضد اعتماد صرف نمیکنند. که برای شرکتهای فناوری کمتر راحت است و ممکن است بر درآمد آنها تأثیر منفی بگذارد.
Marc Andreessen یک مقاله از مزیتهای هوش مصنوعی نوشته است. با اینکه من در برخی نکات با او دید متفاوتی دارم، (برای مثال، من نسبت به ایشون بیشتر نگران تاثیر منفی جابجایی شغل توسط هوش مصنوعی هستم). او استدلال درستی می کند که هر بار که یک فناوری جدید معرفی شده است، یک وحشت اخلاقی قابل پیش بینی به وجود آمده است. ( در pessimistsarchive.org به مثالهای خیلی خوبی در اینباره استناد شده است و ارزش خوندن رو داره.) که ترس از رمانهای غیرداستانی که جوانان را فاسد میکنند، آسانسورهایی که باعث تب مغزی میشوند، ماشینها (“واگن شیطان”) در مأموریتی برای نابود کردن جهان، و صدای ضبط شده که به نوزادان آسیب می رساند. با ظهور یادگیری عمیق حدود 10 سال پیش، ایلان ماسک، بیل گیتس و استیون هاوکینگ در مورد خطر انقراض ناشی از هوش مصنوعی هشدار دادند. موج کنونی ترس ها در مورد هوش مصنوعی برای من شبیه همین هاست، اما شدیدتر! که دانشمندان برجسته را جذب می کند.
خوشحالم که می بینم دیگران جایگزین معقولی برای روایت هوش مصنوعی به عنوان خطر انقراض ارائه می کنند. با این حال، من احساس مسئولیت اخلاقی میکنم که ذهنی باز داشته باشم و مطمئن شوم که واقعاً خطر را درک میکنم – بهویژه با توجه به احترام زیادی که برای برخی که فکر میکنند هوش مصنوعی این خطر را ایجاد میکند، قائل هستم.
همین گسترش استفاده از هوش مصنوعی در فعالیت های نظامی اگر ادامه پیدا کنه ابتدای کار بهبود چشم گیری میده ولی چه اتفاقی در آینده خواهد افتاد. پیشرفت این فناوری در ۱۰ سال اخیر خیلی سریع بوده و تمام باور هایی که یک هوش مصنوعی قادر به انجام فلان کار نیست را داره تحت تاثیر میزاره و قطعا این روند ادامه پیدا خواهد کرد. همچنین با پیشرفت های اخیر امکان کشت سلول هایی با قابلیت یادگیری با بهره برداری از سلول های بنیادی وجود داره، شما فکر کن عملا چند سال دیگه میشه فرانکشتاین ساخت