Огляд ЗМІ

ChatGPT недогодував підлітків з ожирінням

Сьогодні, 09:22Новини10

Этот материал также доступен на русском

Дослідники закликають усіх, хто користується чатботами для створення раціону, звіряти його відповіді з рекомендаціями лікарів

  • Посилання скопійованоlink copied

Під час створення раціону для схуднення ChatGPT і подібні чатботи на основі штучного інтелекту недооцінили потребу підлітків з ожирінням у калоріях, порівняно з рекомендаціями дієтолога. Так вони створили дієту, у якій бракувало майже 700 кілокалорій — це як повноцінний прийом їжі. Оскільки підлітки особливо схильні до розладів харчової поведінки та сприйняття отриманої в інтернеті інформації, важливо, щоб у них був доступ до перевірених даних щодо того, що стосується їхнього здоров’я. Дослідження опублікували в журналі Frontiers in Nutrition.

Чим небезпечна дієта від чатбота?

Оскільки останнім часом багато людей почали звертатися до штучного інтелекту за порадами для схуднення, науковці вирішили перевірити, наскільки обґрунтованими будуть ці поради. Для цього вони дали п’ятьом популярним чатботам — ChatGPT-4o, Gemini 2.5 Pro, Claude 4.1, Bing Chat-5GPT і Perplexity — завдання розробити раціони для чотирьох підлітків з надмірною вагою або ожирінням і порівняли ці раціони з рекомендаціями дієтолога.

Як виявилося, окрім недооціненої потреби в калоріях, штучний інтелект також відхилявся від нормального співвідношення основних нутрієнтів: білків, жирів і вуглеводів. Так у створеному чатботами раціоні 21,5-23,7 відсотка енергії походило з білків, а 41,5-44,5 відсотка — з жирів. Це вище за рекомендовані 15-20 відсотків для білка та 30-35 відсотків для жирів. Такий зсув може створювати додаткове навантаження на нирки та печінку, які відповідальні за розщеплення та виведення цих нутрієнтів.

Попри те, що рекомендації Всесвітньої організації охорони здоров’я щодо побудови раціону доступні в інтернеті, науковці припускають, що чатботи на них не спираються, а натомість використовують поширені плани дієт. Це може бути пов’язано з тим, що моделі на основі штучного інтелекту натреновані давати користувачу ту відповідь, яка здаватиметься найбільш правдоподібною та приємною, часто ігноруючи перевірку фактів. Тому дослідники закликають усіх, хто користується чатботами для створення раціону, звіряти його відповіді з рекомендаціями лікарів.

Які ще загрози для здоров’я можуть іти від штучного інтелекту

🧂 За порадою ChatGPT 60-річний американець замінив кухонну сіль на токсичний бромід натрію, після чого потрапив до лікарні з отруєнням і психозом.

🙅‍♀️ Через нерозуміння слова «ні» навіть просунуті моделі штучного інтелекту, які здатні порівнювати зображення й текст, помилилися у визначенні діагнозів.

💊 Щоб цього не траплялося, медики натренували модель штучного інтелекту не лестити користувачам, а давати правдиві рекомендації щодо приймання ліків.

Не пропустіть важливе!
Підписуйтесь та отримуйте дайжест новин

Щоденно чи щотижня – обираєте ви!

Думка експерта

Бажаєте стати автором borg.expert?

Матеріали за темою

Дослідження

Статті • БОРГ-review
Корпоративні спори в Україні – це звичне явище, особливо на тлі швидкого розвитку підприємництва

Дослідження

Статті • БОРГ-review
З’ясувалось, що в законодавстві у цій сфері існує певний хаос

Дослідження

Статті • БОРГ-review
Людський фактор, який ми звикли критикувати в судочинстві, насправді є нашою найбільшою цінністю в епоху ШІ

Дослідження

Статті • БОРГ-review
Думку експертів формує не їхній власний аналіз, а документи, які вони отримують від секретаріату. А секретаріат, у свою чергу, — це представники грантових структур

Дослідження

Статті • БОРГ-review
«Світячи іншим, згораю сам»: про лікарів, що тримають оборону життя

Дослідження

Статті • БОРГ-review
Будь-які потуги московітів, навіть гіпотетичні, привласнити собі «Щедрика» Миколи Леонтовича, який став одним із національних музичних символів України – приречені