آیا از هوش مصنوعی باید ترسید؟
تاریخ انتشار: ۷ خرداد ۱۴۰۲ | کد خبر: ۳۷۸۴۳۷۰۳
نگرانیهای کارشناسان در مورد توسعه سریع و شتابزده هوش مصنوعی و تهدیدات بالقوه این فناوری نشان می دهد که عواقب این فناوری اعتماد، اخلاق و دموکراسی را نشانه می گیرد.
خبرگزاری برنا؛ رقابت بر سر توسعه هوش مصنوعی محدود به حوزههای فناوری، تجاری و بوروکراتیک نمیشود و حوزه مهم نظامی را هم در بر میگیرد. برخی نگرانیها حاکی از آن است که رقابت شدید کشورها بر سر هوش مصنوعی احتمالاً به حوزه نظامی هم کشیده شده و جهان را در معرض مخاطراتی مانند جنگ سرد یا حتی جنگ جهانی قرار خواهد داد.
بیشتر بخوانید:
اخباری که در وبسایت منتشر نمیشوند!
نگرانیهای بسیار در یکی از بسترهای تولد هوش مصنوعی مولد
اخیراً بسیاری از شهروندان آمریکایی پس از ادعاهایی درمورد سوگیری و حمایت «ChatGPT» از دموکراتها و عقاید آنها احساس نگرانی میکنند. جمهوریخواهان در پاسخ به این ادعا چتبات مدافع جناح راست را وارد عرصه سیاست کردند. سازندگان مرورگر «TUSK»، چتباتی عرضه کردهاند که با دیدگاه محافظهکاران آمریکایی همسو است. این هوش مصنوعی مولد که «Gipper» نامیده میشود، عملکردی مشابه «ChatGPT» دارد، با این تفاوت که به نحوی کدگذاری شده که بتواند مانند یک محافظهکار عمل کند. تمامی این اتفاقات موید این موضوع است که هوش مصنوعی مولد که هم اکنون به منبع اطلاعات برای بسیاری تبدیل شده میتواند مواضع گروهی را ترویج کرده و موضعگیریهای خاص خود را داشته باشد. این ابزار فناورانه قابلیت این را دارد که در حوزه رسانه به جنگ عقیدههای مخالف سازندگان آن رفته و بجای منبع اطلاعات نسبتاً بیطرف، به خدمتگزار منافع سیاسی سرمایهگذاران و سازندگان آن تبدیل شود.
چندی پیش، جین ایسترلی، مدیر آژانس امنیت سایبری و امنیت زیر ساخت ایالات متحده آمریکا (CISA)، هشدار داد که هوش مصنوعی ممکن است بهصورت توأمان، «قدرتمندترین قابلیت زمان ما» و «قویترین سلاح زمان ما» باشد.
ایسترلی معتقد است که مزایای هوش مصنوعی نیز همراه با تهدیداتی جدی است. ایسترلی تأکید کرد که هوش مصنوعی با تمام مزایایش ارزش به خطر انداختن امنیت را ندارد و باید تابع مقررات باشد.
او همچنین افزود: «درحالیکه یک نفر از قابلیتهای «ChatGPT» برای برگزاری یک مهمانی استفاده کرده فرد دیگری از قابلیتهای آن برای برنامهریزی یک حمله سایبری یا تروریستی استفاده میکند.»
یکی دیگر از نگرانیهایی که آمریکاییها در مورد هوش مصنوعی دارند، امکان تأثیرگذاری آن در انتخابات ریاستجمهوری ۲۰۲۴ این کشور است. پیت ریتکس سناتور جمهوریخواه آمریکایی هشدار داد که چین میتواند با استفاده از هوش مصنوعی، نقش عمدهای در انتخابات ۲۰۲۴ ایفا کند. او در جلسه کمیته روابط خارجی سنا در مورداستفاده از هوش مصنوعی برای ایجاد تصاویر و ویدئوها جعلی مشابه افراد هشدار داد و راهحل اینگونه بحرانهای احتمالی را آموزش مردم در حوزه رسانه و تقویت تفکر انتقادی دانست.
هوش مصنوعی اخلاق دارد؟
دانشمندانی که در سالهای اخیر، تمامی هم خود را بر توسعه هوش مصنوعی گذاشتهاند، بیشتر در پی ایجاد مخلوقی با تواناییهای فکری انسان بودهاند؛ اما مسئله این است که انسان علاوه بر قدرت تفکر، وجدان هم دارد که باعث تلازم او به اخلاق میشود. رباتهای مولدی مانند «ChatGPT» هنگام پاسخگویی بر مبنای کلاندادهها قائل به خوب و بد پاسخهای خود هستند؟ تعریفی از اخلاق دارند؟ در حال حاضر پاسخ این سؤالها، منفی است.
طراحی سیستمهای هوش مصنوعی اخلاقمدار با اصول اخلاقی مشترک بین انسانها کار بسیار دشواری خواهد بود. کارشناسان اخلاق نگرانیهایی دارند که در صورت تلاش برای اخلاقمدار کردن هوش مصنوعی مولد زبانی، نظامهای اخلاقی چه کسانی باید اعمال شوند؟ چه کسانی این تصمیم را میگیرند؟ چه کسی مسئول نظارت بر اخلاقمدار بودن هوش مصنوعی خواهد بود؟ چه کسی باید این نظامهای اخلاقی را پس از تدوین، اجرا کند؟
واقعیت این است که رقابت ژئوپلیتیک و اقتصادی، محرک اصلی توسعهدهندگانی هوش مصنوعی است، درحالیکه نگرانیهای اخلاقی در جایگاه دوم قرار میگیرد. برخی از کارشناسان معتقدند که توسعهدهندگان هوش مصنوعی و ابزارهای مرتبط با آن در حالت خوشبینانه انگیزه کمی برای طراحی نظامهای اخلاقمدار داشته و در حالت بدبینانه هیچ دغدغهای ندارند!
بعضی دیگر نیز معتقدند تا وقتی مبنای تصمیمات هوش مصنوعی غیرقابلتشخیص باشد نمیتوان مضرات هوش مصنوعی را شناسایی کرده و راهحل مناسبی برای آن یافت. باتوجهبه اینکه پایگاههای دادههای هوش مصنوعی در سیستم فعلی موجود است و مشکلات اخلاقی بسیار نظام حال حاضر، نمیتوان انتظار معجزه و اهمیتدادن به اخلاق از این هوش مصنوعی داشت.
هوش مصنوعی مانند تمامی ابزارها میتواند برای «خوب یا بد» استفاده شود و بشر و سازندگان در نهایت کارکرد اصلی آن را مشخص میکنند. در نهایت هوش مصنوعی امتدادی از خودمان خواهد بود و تا جایی که بتوانیم و بخواهیم جامعهای اخلاقیتر بسازیم هوش مصنوعی اخلاقیتری خواهیم داشت در غیر این صورت هوش مصنوعی پیامدهای بیاخلاقی بشر را با ذرهبین قدرتمند خود چند برابر کرده و سر راه انسان قرار میدهد.
دستکاری ذهن انسان و نابودی دموکراسی
کارشناسان و محققان سر این مسئله که هوش مصنوعی نحوه کار و زندگی ما را تغییر خواهد داد اجماع دارند. همه تغییرات میزانی از ریسک را دارد، اما مقدار و طیف این ریسک بسیار مهم است. برخی معتقدند هوش مصنوعی میتواند تا جایی پیش برود که ذهن انسان را دستکاری کند.
بدبینانهترین شکل ماجرا بهدستآوردن قدرت و نابودی جهان است؛ اما حالت خوشبینانه آن ایجاد تصاویر نادرست، ویدئوهای نادرست است که در نهایت منجر به نابودی اعتماد میشود.
انسان در مواردی نمیتواند مطمئن باشد فلان سیاستمدار واقعاً این حرف را زده یا صدا و تصویر و متن و ویدئو ساخته هوش مصنوعی است. جسیکا سیسیل رئیس سابق دفتر بیبیسی و مؤسس «Trusted News Initiative» که با اطلاعات نادرست مبارزه میکند در مصاحبه با پرایم تایم گفت: «دموکراسی متکی بر این است کهرای دهندگان بتوانند به اطلاعات واقعی دسترسی داشته و طبق بررسی و تحلیل ذهن خود آن را باور کرده یا نکنند و سپس گفتگویی مشترک پیرامون حقایق مورد توافق داشته باشند.» بهعبارتدیگر هوش مصنوعی با ایجاد اطلاعات نادرست اعتماد مردم را از بین میبرد و بدون اینکه افراد بدانند اطلاعاتی واقعی است یا نه نمیتوانند بر اساس آن به فردی که واقعاً مدنظر آنهاست رأی دهند.
جفری هینتون که اخیراً از سمت خود بهعنوان معاون مهندسی گوگل استعفا داد تا زنگ خطرات هوش مصنوعی را به صدا در آورد، در مصاحبهای که اخیراً از او منتشر شد هشدار داد که جهان باید راهی برای کنترل این فناوری درحالتوسعه پیدا کند!
«پدرخوانده هوش مصنوعی»، در گفتههای خود ضمن تأکید بر تأثیرات مثبت هوش مصنوعی در پزشکی، علم مواد، پیشبینی زلزله و سیل و…، معتقد است که تمام این فواید اگر باعث پیشیگرفتن هوش مصنوعی بر بشر شود، نهتنها بیفایده که ویرانگر خواهد بود.
او همچنین تأکید کرد که «ممکن است هیچ راهی برای جلوگیری از یک پایان بد نباشد؛ اما واضح است که انسانهای باهوش و متخصص قادرند راهی برای مقابله با این چالش بیابند؛ اما این اتفاق باید قبل از اینکه هوش مصنوعی خیلی باهوش شود بیفتد!»
داعیهداران هوش مصنوعی
اگر داعیهداران هوش مصنوعی مولد را صاحبان شرکتهای فناوری مانند «OpenAI»، شرکت توسعهدهنده «ChatGPT»، بدانیم، باتوجه به سابقه عملکرد آنها در حوزههای دیگر میتوان تشخیص داد که اولویت این شرکتها منافع اقتصادی و رقابت با سایر شرکتهاست.
جهان در حال حاضر با بسیاری از مشکلات فناوریهایی که این قبیل شرکتها توسعه دادهاند؛ مانند نقض حریم شخصی کاربران، انتشار اخبار جعلی و اطلاعات نادرست و ارائه محتوای نامناسب به کودکان و نوجوانان، در فضای مجازی دستوپنجه نرم میکند و پر واضح است که مدیریت این شرکتها آینده هوش مصنوعی و انسان را به مقصدی نامعلوم، با چالشهایی بهمراتب بزرگتر میبرد.
اما اگر داعیهداران هوش مصنوعی را دولتهایی بدانیم که بستر شرکتهای فناوری هستند میتوانیم باتوجه به عملکرد سابق آنها که مبتنی بر در نظر نگرفتن منافع کشورهای غیر همسو و در برخی از موارد همسو با آنان است، این احتمال را بدهیم که از این ابزار جهت افزایش سلطه خود بر سایر ملتها و دولتها و زیرسؤالبردن حاکمیت آنها استفاده کنند.
انتهای پیام/
آیا این خبر مفید بود؟نتیجه بر اساس رای موافق و رای مخالف
منبع: خبرگزاری برنا
کلیدواژه: اخلاق دموکراسی رسانه علم و فناوری فناوری هوش مصنوعی هوش مصنوعی مولد هوش مصنوعی اخلاق مدار نگرانی ها شرکت ها
درخواست حذف خبر:
«خبربان» یک خبرخوان هوشمند و خودکار است و این خبر را بهطور اتوماتیک از وبسایت www.borna.news دریافت کردهاست، لذا منبع این خبر، وبسایت «خبرگزاری برنا» بوده و سایت «خبربان» مسئولیتی در قبال محتوای آن ندارد. چنانچه درخواست حذف این خبر را دارید، کد ۳۷۸۴۳۷۰۳ را به همراه موضوع به شماره ۱۰۰۰۱۵۷۰ پیامک فرمایید. لطفاً در صورتیکه در مورد این خبر، نظر یا سئوالی دارید، با منبع خبر (اینجا) ارتباط برقرار نمایید.
با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت «خبربان» مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویر است، مسئولیت نقض حقوق تصریح شده مولفان در قانون فوق از قبیل تکثیر، اجرا و توزیع و یا هر گونه محتوی خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.
خبر بعدی:
اولین نبرد هوایی یک جنگنده تحت کنترل هوش مصنوعی و انسان انجام شد
به گزارش جماران به نقل از یورونیوز، ارتش ایالات متحده آمریکا میگوید برای اولین بار یک هواپیمای نظامی تحت کنترل هوش مصنوعی در یک نبرد هوایی در مقابل جنگندهای به خلبانی یک انسان قرار گرفت.
اولین نبرد هوایی بین انسان و هواپیمای تحت کنترل هوش مصنوعی توسط نیروهای هوایی ارتش آمریکا برنامهریزی شده بود.
دارپا، آژانس تحقیقاتی پیشرفته دفاعی دولت آمریکا، با انتشار این اطلاعات فاش کرد که این نبرد هوایی ماه سپتامبر سال گذشته میلادی بین یک جنگنده «اف-۱۶» به خلبانی یک انسان با یک هواپیمای نظامی آزمایشی مجهز به هوش مصنوعی در پایگاه نیروی هوایی ادواردز در کالیفرنیا صورت گرفت.
گفته میشود این نبرد هوایی در ارتفاع بیش از ۶۰۰ متر از سطح زمین برای آزمایش میزان قدرت و پیشرفت هوش مصنوعی انجام شد. ارتش آمریکا در مورد این نبرد هوایی اطلاعاتی فاش نکرده است.
دارپا در بیانیه مطبوعاتی خود از نبرد بین یک هواپیمای کنترل شده با هوش مصنوعی و یک هواپیمای کنترل شده توسط انسان به عنوان «نقطه عطفی در تاریخ» یاد کرده است.
بیل گری، از مدرسه خلبانی آزمایشی ارتش ایالات متحده گفت: «انتظار میرود که این آزمایشها ادامه یابد».
ارتش آمریکا چند سال است که بر روی تولید هواپیماهایی نظامی کار میکند که توسط هوش مصنوعی هدایت میشوند. نیروی هوایی ایالات متحده پیش از این تجربه چند مورد
گفته میشود تا کنون بیش از ۲۱ پرواز آزمایشی نیز در این راستا انجام گرفته و در ماه فوریه ۲۰۲۳ نیز هوش مصنوعی برای اولین بار هدایت یک هواپیمای نظامی را نزدیک به ۱۷ ساعت در دست داشته است.