هوش مصنوعی چیست؟
از SIRI گرفته تا اتومبیل های خودران ، هوش مصنوعی به سرعت در حال پیشرفت است. در حالی که داستانهای علمی اغلب هوش مصنوعی را به عنوان رباتهایی با ویژگیهای انسانی به تصویر می کشند ، هوش مصنوعی می تواند از الگوریتم های جستجوی گوگل گرفته تا IBM’s Watson گرفته تا سلاح های خودمختار را شامل شود.
هوش مصنوعی امروزه به درستی به عنوان هوش مصنوعی باریک (یا هوش مصنوعی ضعیف) شناخته می شود ، از این نظر که برای انجام یک کار محدود طراحی شده است (به عنوان مثال فقط تشخیص چهره یا فقط جستجوی اینترنتی یا فقط رانندگی با ماشین). با این حال ، هدف طولانی مدت بسیاری از محققان ایجاد AI کلی (AGI یا AI قوی) است. در حالی که هوش مصنوعی باریک ممکن است در هر وظیفه خاصی از انسان بهتر عمل کند ، مانند بازی شطرنج یا حل معادلات ، AGI تقریباً در هر کار شناختی از انسان پیشی می گیرد.
شما می توانید در هوشیو اخبار هوش مصنوعی را در سطح ایران و جهان دنبال کنید.
چرا تحقیق در مورد ایمنی AI؟
در کوتاه مدت ، هدف از حفظ تأثیر AI بر جامعه ، انگیزه تحقیقات در بسیاری از زمینه ها ، از اقتصاد و حقوق گرفته تا موضوعات فنی مانند تأیید ، اعتبار ، امنیت و کنترل است. اگر لپ تاپ شما خراب شود یا هک شود ، ممکن است کمی بیشتر از یک مزاحمت جزئی باشد ، این اهمیت بیشتری می یابد که یک سیستم هوش مصنوعی همان کاری را انجام می دهد که شما می خواهید در صورت کنترل ماشین ، هواپیما ، ضربان ساز ، تجارت خودکار شما سیستم یا شبکه برق شما. چالش کوتاه مدت دیگر جلوگیری از یک مسابقه ویرانگر تسلیحاتی در سلاح های خودمختار کشنده است.
در دراز مدت ، یک سوال مهم این است که اگر تلاش برای هوش مصنوعی قوی موفقیت آمیز باشد و یک سیستم هوش مصنوعی در همه کارهای شناختی بهتر از انسان شود ، چه اتفاقی می افتد. همانطور که توسط I.J. خوب در سال 1965 ، طراحی سیستم های هوش مصنوعی هوشمندتر یک کار شناختی است. چنین سیستمی می تواند به طور بالقوه دچار خود بهبودی بازگشتی شود و باعث انفجار اطلاعاتی شود و عقل انسان را بسیار عقب نگه دارد. با ابداع فن آوری های جدید انقلابی ، چنین ابر هوشمندی ممکن است به ما کمک کند تا جنگ ، بیماری و فقر را ریشه کن کنیم و بنابراین ایجاد هوش مصنوعی قوی بزرگترین واقعه در تاریخ بشر است. هر چند برخی از متخصصان ابراز نگرانی کرده اند که ممکن است آخرین هدف نیز باشد ، مگر اینکه یاد بگیریم اهداف AI را قبل از اینکه فوق العاده هوشمند شود ، تراز کنیم.
برخی از آنها س questionال می کنند که آیا هرگز هوش مصنوعی قوی حاصل می شود یا خیر و برخی دیگر اصرار دارند که ایجاد هوش مصنوعی فوق العاده مفید است. در FLI ما هر دو این احتمالات را تشخیص می دهیم ، اما همچنین توانایی یک سیستم هوش مصنوعی را به طور عمدی یا ناخواسته آسیب بزرگی می شناسیم. ما اعتقاد داریم که تحقیقات امروز به ما کمک می کند تا در آینده برای جلوگیری از چنین عواقب بالقوه منفی بهتر آماده شویم و از آنها جلوگیری کنیم ، بنابراین از مزایای هوش مصنوعی بهره مند می شویم ضمن اینکه از مشکلات جلوگیری می کنیم.
چگونه هوش مصنوعی می تواند خطرناک باشد؟
اکثر محققان اتفاق نظر دارند که بعید است هوش مصنوعی فوق العاده هوشمند احساسات انسانی را مانند عشق یا نفرت از خود نشان دهد و هیچ دلیلی وجود ندارد که انتظار داشته باشیم هوش مصنوعی عمداً خیرخواهانه یا بدخواهانه شود. در عوض ، هنگام بررسی چگونگی خطرناک شدن هوش مصنوعی ، کارشناسان احتمالاً دو سناریو را در نظر می گیرند:
هوش مصنوعی برای انجام کاری ویرانگر برنامه ریزی شده است: سلاح های خودمختار سیستم های هوش مصنوعی هستند که برای کشتن برنامه ریزی شده اند. این سلاح ها در دست یک فرد اشتباه می توانند به راحتی تلفات جانی ایجاد کنند. علاوه بر این ، یک مسابقه تسلیحاتی هوش مصنوعی می تواند ناخواسته به جنگ هوش مصنوعی منجر شود که منجر به تلفات جانی نیز می شود. برای جلوگیری از خنثی شدن توسط دشمن ، این سلاح ها به گونه ای طراحی شده اند که "خاموش کردن" آنها بسیار دشوار است ، بنابراین انسان ها می توانند به طور منطقی کنترل چنین وضعیتی را از دست بدهند. این خطر خطری است که حتی با هوش مصنوعی باریک نیز وجود دارد ، اما با افزایش سطح هوش و استقلال هوش مصنوعی رشد می کند.
هوش مصنوعی برای انجام یک کار مفید برنامه ریزی شده است ، اما برای رسیدن به هدف خود روشی مخرب را توسعه می دهد: هر زمان که نتوانیم اهداف AI را با اهداف خود هماهنگ کنیم ، این اتفاق می افتد که بسیار دشوار است. اگر از یک ماشین هوشمند مطیع بخواهید که شما را با سریعترین زمان ممکن به فرودگاه برساند ، ممکن است شما را با تعقیب هلی کوپترها و پوشیده از استفراغ روبرو کند ، نه آنچه را که می خواستید بلکه به معنای واقعی کلمه همان چیزی است که شما خواسته اید. اگر یک سیستم فوق العاده هوشمند وظیفه یک پروژه مهندسی ژئوپتیوز بلند پروازانه را داشته باشد ، ممکن است به عنوان یک عارضه جانبی ویرانگر اکوسیستم ما باشد و تلاش های انسان برای متوقف کردن آن را تهدیدی برای پاسخگویی بداند.
همانطور که این مثالها نشان می دهد ، نگرانی در مورد هوش مصنوعی پیشرفته بدخواهی نیست بلکه صلاحیت است. هوش مصنوعی فوق العاده هوشمند در تحقق اهداف خود بسیار خوب خواهد بود و اگر این اهداف با اهداف ما مطابقت نداشته باشد ، ما با یک مشکل روبرو هستیم. شما احتمالاً نفرت انگیز مورچه ای شیطانی نیستید که از روی سوice نیت پا روی مورچه ها بگذارد ، اما اگر شما مسئولیت پروژه انرژی سبز برق آبی را دارید و مورچه ای در منطقه وجود دارد که باید تحت آب قرار بگیرد ، برای مورچه ها بسیار بد است. یک هدف اساسی در تحقیقات ایمنی AI این است که هرگز بشریت را در موقعیت آن مورچه ها قرار ندهیم.
چرا منافع اخیر در ایمنی AI
استیون هاوکینگ ، ایلان ماسک ، استیو وزنیاک ، بیل گیتس و بسیاری دیگر از بزرگان علم و فناوری اخیراً در رسانه ها و از طریق نامه های سرگشاده در مورد خطرات ناشی از هوش مصنوعی ، و بسیاری از تحقیقات برجسته هوش مصنوعی ، ابراز نگرانی کرده اند.
هوشیو پایگاه جامع هوش مصنوعی در ایران