From the blog

بر اساس یک بررسی جدید، نقص امنیتی جدی در سامانه‌های هوش مصنوعی ممکن است تهدیدی برای جان انسان‌ها باشد.محققان هشدار داده‌اند که سامانه‌های رباتیکی که برای تصمیم‌گیری از هوش مصنوعی استفاده می‌کنند، ممکن است دچار خرابی شوند و این سامانه‌ها ایمن نیستند.این تحقیق جدید به مدل‌های زبانی بزرگ یا ال‌ال‌ام‌‌‌ها پرداخته است؛ فناوری‌ که زیربنای سامانه‌هایی مانند چت‌جی‌پی‌تی را تشکیل می‌دهد. فناوری مشابهی نیز در رباتیک به‌کار می‌رود تا تصمیم‌گیری‌ ماشین‌های واقعی را کنترل کند

اما این فناوری طبق تحقیقات جدیدی که دانشگاه پنسیلوانیا انجام داده، آسیب‌پذیری‌ها و ضعف‌های امنیتی دارد که ممکن است هکرها از آن سوءاستفاده کنند و از این سامانه‌ها استفاده نامطلوب شود.جورج پاپاس، استاد این دانشگاه، گفت: «تحقیقات ما نشان می‌دهد که در حال حاضر، مدل‌های زبانی بزرگ اگر با دنیای فیزیکی ادغام شوند، به اندازه کافی ایمن نیستند.» پروفسور پاپاس و همکارانش نشان دادند که می‌توان از سیستم‌های امنیتی موجود در بسیاری از سامانه‌های کنونی عبور کرد. این [مشکل امنیتی می‌تواند] یک سیستم خودران‌ باشد که ممکن است هک شود تا برای نمونه، ماشین را وادار کند از تقاطع‌ها عبور کند

محققان این مقاله با سازندگان این سیستم‌ها همکاری می‌کنند تا این نقاط ضعف را شناسایی و در برابر آن‌ها اقدام کنند. اما آن‌ها هشدار دادند که این امر نیازمند بازنگری کلی در نحوه ساخت این سامانه‌ها است و نه فقط رفع ضعف‌های خاص

ویجای کومار، یکی دیگر از نویسندگان این مقاله از دانشگاه پنسیلوانیا، گفت: «یافته‌های این مقاله به‌وضوح نشان می‌دهد که داشتن رویکردی با اولویت ایمنی برای دستیابی به نوآوری مسئولانه امری حیاتی است. ما باید پیش از استقرار ربات‌های مجهز به هوش مصنوعی در دنیای واقعی، آسیب‌پذیری‌های ذاتی [نقاط ضعف اساسی] آن‌ها را برطرف کنیم.»در واقع، پژوهش ما در حال توسعه چارچوبی برای تایید و اعتبارسنجی است که اطمینان می‌دهد فقط اقدام‌هایی که با هنجارهای اجتماعی سازگارند، می‌توانند و باید با سیستم‌های رباتیک انجام شوند

https://www.independentpersian.com/node/410481/%D8%B2%D9%86%D8%AF%DA%AF%DB%8C/%D8%B9%D9%84%D9%88%D9%85/%D9%85%D8%AD%D9%82%D9%82%D8%A7%D9%86-%D8%B6%D8%B9%D9%81-%D8%A7%D9%85%D9%86%DB%8C%D8%AA%DB%8C-%D9%87%D9%88%D8%B4-%D9%85%D8%B5%D9%86%D9%88%D8%B9%DB%8C-%D8%B2%D9%86%D8%AF%DA%AF%DB%8C-%D8%A7%D9%86%D8%B3%D8%A7%D9%86-%D8%B1%D8%A7-%D8%AA%D9%87%D8%AF%DB%8C%D8%AF-%D9%85%DB%8C%E2%80%8C%DA%A9%D9%86%D8%AF

Have your say

Hoppa till verktygsfältet