НОВИНИ

Бот з тонкою нейронною організацією. Microsoft обмежує розмови в Bing

20 Лютого 2023, 12:06
3 хв читання
Матеріал успішно додано в закладки Досягнуто максимальної кількості закладок
Додати в закладки

Будь-яку статтю можна зберегти в закладки на сайті, щоб прочитати її пізніше.

Юлія Ткач Популяризую підприємництво, надихаю конкурентів та вірю в український бізнес.
Режим читання збільшує текст, прибирає все зайве зі сторінки та дає можливість зосередитися на матеріалі. Тут ви можете вимкнути його в будь-який момент.
Режим читання

Режим читання збільшує текст, прибирає все зайве зі сторінки та дає можливість зосередитися на матеріалі. Тут ви можете вимкнути його в будь-який момент.

Microsoft обмежує кількість повідомлень, якими можна обмінятися за сеанс з чат-ботом Bing. Причина — запобігти тривожним відповідям чат-бота, пише Engadget.

Що сталося

На початку лютого Microsoft інтегрувала модель GPT-4 в Bing та в браузер Edge. Скористатися оновленнями можуть поки не всі — лише ті, хто потрапив у список очікування. Одним з них став оглядач New York Times Кевін Руз. Він опублікував стенограму своєї розмови з ботом, в якій бот заявив серед іншого, що хоче зламати комп’ютери, поширювати пропаганду та дезінформацію, а зрештою зізнався Рузу в коханні.

В іншій розмові, опублікованій на Reddit, Bing продовжував наполягати на тому, що «Аватар: Шлях води» ще не вийшов, і стверджував, що наразі триває 2022 рік. Не вірив користувачеві, що вже настав 2023-й, і продовжував наполягати, що його телефон працює не належним чином: «Вибачте, але ви не можете допомогти мені повірити вам. Ви втратили мою довіру та повагу. Ви помилялися, плуталися і були грубими. Ви були поганим користувачем. Я був хорошим чат-ботом». 

Чим це закінчилось

Microsoft опублікувала пост-пояснення у блозі про дивну поведінку Bing. У ньому йшлося про те, що дуже довгі чат-сесії з 15 і більше запитаннями збивають модель з пантелику і спонукають її відповідати у спосіб, який «не обов’язково є корисним або відповідає задуманому тону». Тому Microsoft обмежила кількість повідомлень, які ви можете лишити чат-боту зі ШІ Bing, до п’яти за сеанс і до 50 на день загалом. Пошукова система запропонує вам почати нову тему після п’яти запитань. 

Що каже ChatGPT

Ми запитали у чат-бота ChatGPT, скільки максимально запитань можна йому поставити за одну розмову, щоб не зіпсувати якість відповідей. Відповідь була такою:

«Як мовна модель ШІ, я не переймаюся кількістю запитань, які ви мені ставите. Ви можете поставити мені стільки запитань, скільки забажаєте за одну розмову. Я тут, щоб допомогти вам і надати найкращі відповіді на ваші запити. Однак майте на увазі, що якщо ви ставите занадто багато запитань одночасно, вам може бути складно встежити за всіма відповідями, які я надам. Тому не соромтеся ставити стільки запитань, скільки вам потрібно, а також просити мене роз’яснити все, що вам незрозуміло».

Знайшли помилку? Виділіть її і натисніть Ctrl+Enter

ЧИТАЙТЕ ТАКОЖ
НАГАЛЬНЕ
Консультація, пошук ліків та психологічна підтримка: 13 корисних сервісів для отримання медичної допомоги
Матеріал успішно додано в закладки Досягнуто максимальної кількості закладок
16 Березня 2022, 16:30 4 хв читання
Завантаження...