Бот з тонкою нейронною організацією. Microsoft обмежує розмови в Bing
20 Лютого 2023, 12:06
3 хв читання
Додати в закладки
Будь-яку статтю можна зберегти в закладки на сайті, щоб прочитати її пізніше.
Далі
Завершити
Юлія ТкачШеф-редакторка, авторка і ведуча подкасту «Хто ці люди».
Режим читання збільшує текст, прибирає все зайве зі сторінки та дає можливість зосередитися на матеріалі. Тут ви можете вимкнути його в будь-який момент.
Режим читання
Режим читання збільшує текст, прибирає все зайве зі сторінки та дає можливість зосередитися на матеріалі. Тут ви можете вимкнути його в будь-який момент.
Завершити
Microsoft обмежує кількість повідомлень, якими можна обмінятися за сеанс з чат-ботом Bing. Причина — запобігти тривожним відповідям чат-бота, пише Engadget.
Що сталося
На початку лютого Microsoft інтегрувала модель GPT-4 в Bing та в браузер Edge. Скористатися оновленнями можуть поки не всі — лише ті, хто потрапив у список очікування. Одним з них став оглядач New York Times Кевін Руз. Він опублікував стенограму своєї розмови з ботом, в якій бот заявив серед іншого, що хоче зламати комп’ютери, поширювати пропаганду та дезінформацію, а зрештою зізнався Рузу в коханні.
В іншій розмові, опублікованій на Reddit, Bing продовжував наполягати на тому, що «Аватар: Шлях води» ще не вийшов, і стверджував, що наразі триває 2022 рік. Не вірив користувачеві, що вже настав 2023-й, і продовжував наполягати, що його телефон працює не належним чином: «Вибачте, але ви не можете допомогти мені повірити вам. Ви втратили мою довіру та повагу. Ви помилялися, плуталися і були грубими. Ви були поганим користувачем. Я був хорошим чат-ботом».
Чим це закінчилось
Microsoft опублікувала пост-пояснення у блозі про дивну поведінку Bing. У ньому йшлося про те, що дуже довгі чат-сесії з 15 і більше запитаннями збивають модель з пантелику і спонукають її відповідати у спосіб, який «не обов’язково є корисним або відповідає задуманому тону». Тому Microsoft обмежила кількість повідомлень, які ви можете лишити чат-боту зі ШІ Bing, до п’яти за сеанс і до 50 на день загалом. Пошукова система запропонує вам почати нову тему після п’яти запитань.
Що каже ChatGPT
Ми запитали у чат-бота ChatGPT, скільки максимально запитань можна йому поставити за одну розмову, щоб не зіпсувати якість відповідей. Відповідь була такою:
«Як мовна модель ШІ, я не переймаюся кількістю запитань, які ви мені ставите. Ви можете поставити мені стільки запитань, скільки забажаєте за одну розмову. Я тут, щоб допомогти вам і надати найкращі відповіді на ваші запити. Однак майте на увазі, що якщо ви ставите занадто багато запитань одночасно, вам може бути складно встежити за всіма відповідями, які я надам. Тому не соромтеся ставити стільки запитань, скільки вам потрібно, а також просити мене роз’яснити все, що вам незрозуміло».
Знайшли помилку? Виділіть її і натисніть Ctrl+Enter