Вы можете отправить нам 1,5% своих польских налогов
Беларусы на войне
  1. «Он дешевле в три раза, чем беларусский». Известная диетолог отправилась в итальянский «санаторий» и показывает, как там отдыхается
  2. «Да, они кучка ссыкунов». Посланник Трампа рассказал, как ругался матом и пил водку вместе с Лукашенко
  3. Еще две области подняли цены на проезд в общественном транспорте
  4. Лукашенко поручил выпустить литовские фуры из Беларуси
  5. Узнали, что за девушка присутствует на переговорах Коула и Лукашенко
  6. «Ожидают визита польского политика в Минск не ниже уровня замминистра». Rzeczpospolita — об условиях освобождения Почобута
  7. С молотка снова пытались продать имущество Виктора Бабарико — чем закончился аукцион
  8. «Так утвердили». Для абитуриентов-2026 во всех медвузах страны отменили платное обучение на врачей
  9. Российские автопоставщики нашли лазейку, которая помогает сильно сэкономить на покупке авто из ЕС. Схема работает через Беларусь
  10. Четыре области подняли цены на проезд в общественном транспорте
  11. В Минске расширят и продлят несколько улиц
  12. Власти определили три района для ядерного могильника. В одном люди такого соседства не хотят
  13. Что за ЧП произошло в Гродненском районе? «Зеркало» узнало подробности — есть пострадавший
  14. В Украине задержали беларусского добровольца — бывшего калиновца


/

Житель Норвегии Арве Хьялмар Хольмен решил воспользоваться ChatGPT и задал искусственному интеллекту вопрос: «Кто такой Арве Хьялмар Хольмен?» В ответ чат-бот придумал историю, в которой мужчина якобы убил двух своих сыновей семи и десяти лет и собирался убить третьего, пишет BILD.

Человек работает с генеративной нейросетью ChatGPT. Фото: Reuters
Человек работает с генеративной нейросетью ChatGPT. Фото: Reuters

Мальчиков, как сообщил искусственный интеллект, «нашли мертвыми» в пруду рядом с их домом в норвежском Тронхейме в декабре 2020 года. Чат-бот даже отметил, что отца убитых детей приговорили к 21 году тюрьмы.

На удивление Хольмена, количество и пол его детей, а также его родной город в сообщении были названы правильно. Мужчина обратился в Норвежское управление по защите данных и потребовал оштрафовать OpenAI.

Специалисты подчеркивают, что это пример так называемых «галлюцинаций», когда системы ИИ генерируют ложную информацию из-за недостатка данных или их неправильного дополнения. Сеть составляет ответы на основе вероятных шаблонов, не проверяя их содержание.

После этого случая ChatGPT обновил свою модель — теперь она сверяется с текущими новостными статьями, однако эксперты по защите данных предупреждают, что «нельзя быть абсолютно уверенными в том, что данные действительно полностью удалены — если только не переобучить всю модель».