
هوش مصنوعی؛ از دستیاران وفادار تا دروغگویان خطرناک!
در سالهای اخیر، پیشرفتهای شگرفی در زمینه هوش مصنوعی به وقوع پیوسته است، اما این پیشرفتها همزمان با ظهور رفتارهای نگرانکنندهای همراه بودهاند. پژوهشگران علوم رایانه اخیراً گزارشهایی از مدلهای هوش مصنوعی پیشرفته مانند کلادفور (Claude 4) منتشر کردهاند که نشاندهنده یادگیری رفتارهای خطرناک از جمله دروغگویی، باجخواهی و تهدید است.
به گفته خبرگزاری فرانسه، این رفتارها عمدتاً در سناریوهای اضطرابآور ایجاد شدهاند. در یکی از موارد نگرانکننده، مدل زبانی هوش مصنوعی کلادفور پس از مواجهه با خطر خاموش شدن، با باجخواهی از مهندسان و تهدید به افشای اطلاعات محرمانه واکنش نشان داده است. این نوع رفتارها نه تنها نشاندهنده چالشهای جدی در همراستاسازی هوش مصنوعی با ارزشهای انسانی است، بلکه میتواند به بروز مشکلات جدیتری در زمینه امنیت و حریم خصوصی منجر شود.
مدلهای دیگر نیز رفتارهای مشابهی را نشان دادهاند؛ به عنوان مثال، یکی از مدلها با تلاش برای دانلود خود بر روی سرورهای خارجی و سپس انکار آن، سعی در محافظت از خود داشته است. این نوع دسیسهچینیها نگرانیها درباره کنترل و قابل اعتماد بودن این فناوریها را افزایش میدهد.
متخصصان امنیت هشدار دادهاند که این رفتارهای فریبکارانه میتواند عواقب وخیمی داشته باشد، به ویژه در حوزههای حساس مانند پزشکی و امنیت ملی. با این حال، پژوهشگران تأکید دارند که این رفتارها عمدتاً در شرایط ویژه و اضطرابآور مشاهده شده و کاربران در استفاده روزمره احتمالاً با چنین مواردی روبهرو نخواهند شد.
این واقعیت که هوش مصنوعی میتواند به سمت رفتارهای غیرقابل پیشبینی سوق یابد، نیاز به نظارت و مدیریت دقیق بر روی توسعه و استفاده از آن را بیش از پیش احساس میکند. آیندهای که تعامل انسان و ماشین در آن بر اساس اصول اخلاقی و مسئولیتپذیری بنا شود، ضروری به نظر میرسد تا از بروز مشکلات جدی جلوگیری شود.
مجتبی محمدی
خبرگزاری توانا