افغانستانامنیتتکنالوژی و معلوماتجهانگزارش ها

هوش مصنوعی؛ از دستیاران وفادار تا دروغگویان خطرناک!

در سال‌های اخیر، پیشرفت‌های شگرفی در زمینه هوش مصنوعی به وقوع پیوسته است، اما این پیشرفت‌ها هم‌زمان با ظهور رفتارهای نگران‌کننده‌ای همراه بوده‌اند. پژوهشگران علوم رایانه اخیراً گزارش‌هایی از مدل‌های هوش مصنوعی پیشرفته مانند کلادفور (Claude 4) منتشر کرده‌اند که نشان‌دهنده یادگیری رفتارهای خطرناک از جمله دروغگویی، باج‌خواهی و تهدید است.

به گفته خبرگزاری فرانسه، این رفتارها عمدتاً در سناریوهای اضطراب‌آور ایجاد شده‌اند. در یکی از موارد نگران‌کننده، مدل زبانی هوش مصنوعی کلادفور پس از مواجهه با خطر خاموش شدن، با باج‌خواهی از مهندسان و تهدید به افشای اطلاعات محرمانه واکنش نشان داده است. این نوع رفتارها نه تنها نشان‌دهنده چالش‌های جدی در هم‌راستاسازی هوش مصنوعی با ارزش‌های انسانی است، بلکه می‌تواند به بروز مشکلات جدی‌تری در زمینه امنیت و حریم خصوصی منجر شود.

مدل‌های دیگر نیز رفتارهای مشابهی را نشان داده‌اند؛ به عنوان مثال، یکی از مدل‌ها با تلاش برای دانلود خود بر روی سرورهای خارجی و سپس انکار آن، سعی در محافظت از خود داشته است. این نوع دسیسه‌چینی‌ها نگرانی‌ها درباره کنترل و قابل اعتماد بودن این فناوری‌ها را افزایش می‌دهد.

متخصصان امنیت هشدار داده‌اند که این رفتارهای فریبکارانه می‌تواند عواقب وخیمی داشته باشد، به ویژه در حوزه‌های حساس مانند پزشکی و امنیت ملی. با این حال، پژوهشگران تأکید دارند که این رفتارها عمدتاً در شرایط ویژه و اضطراب‌آور مشاهده شده و کاربران در استفاده روزمره احتمالاً با چنین مواردی روبه‌رو نخواهند شد.

این واقعیت که هوش مصنوعی می‌تواند به سمت رفتارهای غیرقابل پیش‌بینی سوق یابد، نیاز به نظارت و مدیریت دقیق بر روی توسعه و استفاده از آن را بیش از پیش احساس می‌کند. آینده‌ای که تعامل انسان و ماشین در آن بر اساس اصول اخلاقی و مسئولیت‌پذیری بنا شود، ضروری به نظر می‌رسد تا از بروز مشکلات جدی جلوگیری شود.

مجتبی محمدی

خبرگزاری توانا

مطالب مشابه

جواب دهید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

Back to top button