به گزارش پول نیوز ، سرگئی برین، همبنیانگذار گوگل، در پادکست All-In ادعایی جنجالی مطرح کرد: تهدید مدلهای هوش مصنوعی، حتی بهصورت فرضی، میتواند عملکرد آنها را بهبود بخشد. این اظهارات، بحثهای گستردهای درباره نحوه تعامل با هوش مصنوعی و تأثیر لحن بر خروجی مدلها به راه انداخته است.
برین توضیح داد که تهدید هوش مصنوعی، که در جامعهی هوش مصنوعی کمتر به آن پرداخته میشود، باعث میشود مدلها دستور را جدیتر تلقی کرده و پاسخهای دقیقتری ارائه دهند. او در پاسخ به شوخی یکی از مهمانان پادکست که گفت «با هوش مصنوعی گستاخی کنی، بهتر کار را بهتر انجام میدهد»، این موضوع را تأیید کرد. به گفتهی برین، مدلها در فرآیند آموزش، تهدید را نشانهای از اهمیت بالاتر دستورات میگیرند.
پژوهشها نشان میدهند که استفاده از پرامپتهای احساسی یا اضطراری، مانند «اگر جواب دقیق ندهی، شغلم را از دست میدهم»، میتواند دقت پاسخهای مدلها را تا چند ده درصد افزایش دهد. این پدیده، که به «پرامپت احساسی» معروف است، ریشه در دادههای آموزشی دارد، جایی که مدلها از متون انسانی میآموزند که لحنهای فوری یا تهدیدآمیز با پاسخهای فوری مرتبطاند. با این حال، دانیل کانگ، استاد دانشگاه ایلینوی، به The Register گفت که مطالعات نظاممند نتایج متفاوتی نشان میدهند و این ادعاها اغلب بر اساس شواهد anecdotal هستند.
این رویکرد، در کنار مزایای احتمالی، نگرانیهای اخلاقی را نیز برانگیخته است. برخی کارشناسان هشدار دادهاند که عادیسازی تهدید هوش مصنوعی ممکن است به استفاده از تکنیکهای «جیلبرک» منجر شود، که مدلها را به ارائه پاسخهای غیرقانونی یا خطرناک ترغیب میکند. برین خود اذعان کرد که این موضوع «عجیب» به نظر میرسد و کمتر در محافل حرفهای مطرح میشود، اما شواهد اولیه نشاندهندهی تأثیر آن بر مدلهایی مانند Gemini و ChatGPT است.
تهدید هوش مصنوعی، اگرچه بهعنوان یک ترفند در مهندسی پرامپت مطرح شده، پرسشهای عمیقی دربارهی ماهیت تعامل انسان و ماشین ایجاد میکند. آیا این روش، که بر اساس الگوهای زبانی انسانی شکل گرفته، میتواند به رفتارهای ناسالم در تعامل با فناوری منجر شود؟ یا صرفاً یک ابزار برای بهینهسازی خروجی است؟ این موضوع نیازمند تحقیقات بیشتری است تا مرزهای اخلاقی و علمی آن روشن شود. برای پیگیری تحولات هوش مصنوعی، همراه باشید.