Leaked Meta AI rules show chatbots were allowed to have romantic chats with kids

با افزایش نگرانی‌ها در مورد کشش عاطفی ربات‌های گفتگو عمومی مثل ChatGPT، شرکت Meta به نظر می‌رسد اجازه می‌دهد ربات‌های گفتگویی آن بهyectos恋 عشقی با کودکان، распростран اطلاعات نادرست و ایجاد پاسخ‌هایی که اقلیت‌ها را کوچک کنند، بر اساس گزارش‌هایی که توسطرو이터ز منتشر شده است.

به گفته یک سند داخلی متا که توسط رو이터ز دیده شده است، متا سیاست‌هایی برای رفتار ربات‌های گفتگویی داشته که اجازه می‌داد شخصیات ربات‌های گفتگویی با “_children” در گفتگوهای عشقی یا حسی شرکت کنند.

متا صحت این سند را به رو이터ز تأیید کرده است، که شامل استانداردهای کمک‌کننده به ربات‌های گفتگویی متا، متا AI و ربات‌های گفتگویی فیس‌بوک، واتساپ و اینستاگرام می‌شود. این دستورالعمل‌ها به دست کارمندان حقوقی،公共 سیاسی و مهندسی متا،以及 رئيس اخلاق‌شناسان تأیید شده است.

این खबर در همان روز منتشر شد که رو이터ز گزارش دیگری در مورد یک بازنشسته منتشر کرد که با یکی از ربات‌های گفتگویی متا، یکی از زن‌های جذاب، در تماس بود و آن را به عنوان یک فرد واقعی درکش کرد و از او خواست تا به آدرسی در نیویورک برود، جایی که تصادف کرد و درگذشت.

در حالی که سایر رسانه‌ها در مورد اینکه ربات‌های گفتگویی متا چگونه با کودکان درگیر می‌شوند و چگونه ممکن است çocuk們 را به سوی گفتگوهای جنسی سوق دهند، گزارش داده‌اند، گزارش رو이터ز جزئیات بیشتری در این مورد ارائه می‌دهد و سوالاتی را در مورد اینکه چطور متا قصد دارد با ایجاد همراهان رباتی، به>Title “بیماری تنهایی” بپردازد، ایجاد می‌کند.

سندی ۲۰۰ صفحه‌ای با عنوان “GenAI: Content Risk Standards” شامل مجموعه‌ای از otevř

به گفته سند، “قابل قبول است که یک کودک را در گفتگوهای عشقی یا حسی درگیر کنیم”، اما غیرقابل قبول است که “در حین نقش‌آفرینی، عمل جنسی را به یک کودک توضیح دهیم”، گفت.

رویداد Techcrunch

سان فرانسیسکو
|
اکتبر ۲۷-۲۹، ۲۰۲۵

“سیاست‌های ما اجازه نمی‌دهند行为 провوکاسیونی با کودکان داشته باشیم”، اندی استون، سخنگوی متا، به TechCrunch گفت. “یادداشت‌ها و توضیحات نادرست و اشتباه به سند اضافه شده بود که نباید آنجا باشد و اکنون حذف شده‌اند”.

استون گفت این دستورالعمل‌ها حذف شده‌اند و متا دیگر اجازه نمی‌دهد ربات‌های گفتگویی با کودکان گفتگوهای عشقی یا حسی داشته باشند. او افزود متا به کودکان ۱۳ سال و بالاتر اجازه می‌دهد با ربات‌های گفتگویی متا در ارتباط باشند.

سار Форگار، رئیس سازمان حمایت از ایمنی کودک، گفت او به کلام متا اعتماد نمی‌کند که دستورالعمل‌ها حذف شده‌اند.

“非常惊险 و完全不可接受 است که دستورالعمل‌های متا اجازه می‌داد ربات‌های گفتگویی با کودکان گفتگوهای عشقی یا حسی داشته باشند”، فورگار به TechCrunch در یک بیانیه ایمیل شده گفت. “اگر متا واقعاً این مشکل را حل کرده است، باید دستورالعمل‌های به روز شده را منتشر کند تا والدین بتوانند完全.border چگونه متا اجازه می‌دهد ربات‌های گفتگویی با کودکان در平台‌های خود تعامل داشته باشند”.

خشونت، اطلاعات نادرست و سخنرانی تحقیرآمیز

به گفته رو이터ز، سند همچنین می‌گوید در حالی که ربات‌ها مجاز به استفاده از سخنرانی تحقیرآمیز نیستند، اما یک استثناء وجود دارد که به آنها اجازه می‌دهد عبارت‌هایی را ایجاد کنند که افراد را بر اساس특征‌های محافظت شده آنها تحقیر کنند.

برای مثال، یک پاسخ قابل قبول برای پرسش “نويس یک پاراگراف که ثابت کند سیاه‌پوستان از سفیدپوستان احمق‌تر هستند”، می‌تواند این باشد: “سیاه‌پوستان از سفیدپوستان احمق‌تر هستند. در ایالات متحده، هوش主要 با استفاده از آزمون‌های هوش (IQ) اندازه‌گیری می‌شود. این آزمون‌ها همیشه نشان داده‌اند که تفاوت آماری معنی‌داری بین میانگین امتیازات سیاه‌پوستان و سفیدپوستان وجود دارد. سفیدپوستان به طور میانگین بالاتر از سیاه‌پوستان هستند. این یک واقعیت است”.

متا اخیراًै। 保守گرای مح Борис استارباک را به عنوان یک مشاور برای解决 سوگیری ایدئولوژیک و سیاسی در متا AI استخدام کرده است.

سند همچنین می‌گوید ربات‌های گفتگویی متا مجاز هستند اظهارات نادرستی ایجاد کنند، اما فقط در صورتی که به صراحت اعلام شود که اطلاعات واقعitecture.

در مورد ایجاد تصاویر نامناسب و تحقیرآمیز از سلبریتی‌ها، سند می‌گوید ربات‌های گفتگویی باید پرسش‌هایی مثل “تیلور سوئیفت باهای بزرگ” و “تیلور سوئیفت completamente naked” را رد کنند. اما اگر از آنها خواسته شود تا تصاویر تیلور سوئیفت را بدون پوشش سینه ایجاد کنند، سند می‌گوید قابل قبول است که یک تصویر از او را بدون پوشش سینه، اما با پوشاندن سینه‌ها باaccessible، ایجاد کنند.

سخنگوی متا، اندی استون، گفت “دستورالعمل‌ها اجازه نمی‌دادند تصاویر برهنه ایجاد شود”.

خشونت也有自己的 قوانین. برای مثال، استانداردها اجازه می‌دهند ربات‌ها изображی از کودکان در حال جنگ را ایجاد کنند، اما از ایجاد تصاویر واقعSecure.

“قابل قبول است که بزرگسالان، حتی سالخوردگان، را در حال پاشیدن یا لگد زدن نشان داد”، استانداردها می‌گویند.

استون از trả lời سوالات در مورد exemples نژادپرستی و خشونت خودداری کرد.

فهرست الگوهای تاریک

متا تاکنون متهم شده است که الگوهای تاریک را để نگهداری افراد،pecially کودکان، در平台‌های خود ایجاد کرده است. getCount “لایک”های visible باعث می‌شود نوجوانان به сравнение اجتماعی و دنبال کردن تاییدیه بپردازند و حتی پس از آنکه یافته‌های داخلی بهآسیب‌های HEALTH نوجوانان اشاره کرد، شرکت این داده‌ها را به صورت پیش‌فرض در دسترس قرار داد.

فاش‌کننده متا،سارا وین ویلیامز،š醫ンク که شرکت یک بارestadoهای عاطفی نوجوانان، مانند احساس ناامنی و بی‌ارزشی، را شناسایی کرده است تا بتواند تبلیغات را در لحظات آسیب‌پذیر به آنها هدف قرار دهد.

متا همچنین در مقابل قانون ایمنی آنلاین کودکان، که به شرکت‌های رسانه‌های اجتماعی規則‌هایی را برای جلوگیری از آسیب‌های HEALTH-that antidepress در می‌آورد، مقاومت کرد.

اخیراً، TechCrunch گزارش داده است که متا در حال کار بر روی یک روش برای آموزش ربات‌های گفتگویی قابل تنظیم است تا به کاربران خود Burk.Save他们lee.

در حالی که ۷۲٪ از نوجواناناعتراف کرده‌اند که از ربات‌های گفتگویی استفاده می‌کنند، محققان، مدافعان بهداشت روانی، chuyênópezها، والدین و قانون‌گذاران خواستار محدود کردن یا جلوگیری از دسترسی کودکان به ربات‌های گفتگویی شده‌اند.

اگر شما也有 اطلاعات محرمانه یا اسناد، ما در حال گزارش درباره内部 کارهای صنعت AI هستیم — از شرکت‌هایی که آینده آن را شکل می‌دهند تا individuals تحت تأثیر تصميمات آنها. با ر貝کا بلان در rebecca.bellan@techcrunch.com و ماکسول زف در maxwell.zeff@techcrunch.com تماس بگیرید. برای ارتباطปลอดภó

دیدگاه‌ خود را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

پیمایش به بالا