Статья посвящена проблеме ложных библиографических записей и ссылок, фабрикуемых чат-ботом с генеративным искусственным интеллектом. Генераторы текста стали популярными благодаря возможности экономии времени и автоматизации процесса создания контента. Оперируя массивами разнородных данных, искусственный интеллект способен объединять и интерпретировать различные источники информации и создавать на их основе новые тексты. Для библиографических же записей, представляющих собой особый тип текста, любое перефразирование становится гибельным, так как элементы библиографической записи являются уникальными идентификаторами конкретного информационного ресурса. Распространение в научной среде сфабрикованных библиографических записей и ссылок на несуществующие публикации свидетельствуют о том, что искусственный интеллект пока еще не способен безошибочно распознать, какие части текста следует рассматривать как библиографические данные, что существенно ограничивает возможности применения чат-ботов в научных исследованиях. Со временем, по мере совершенствования технологий, искусственный интеллект должен научиться выявлять библиографические записи и обрабатывать их иначе, чем обычный текст, – копировать их в точности, а не перефразировать. Однако пока эти проблемы не будут решены, исследователям следует проявлять осторожность: информация, полученная путем использования ChatGPT, должна подвергаться проверке. Автор статьи акцентирует внимание на важности создания превентивных мер для предотвращения распространения недостоверных библиографических записей и ссылок, поскольку это может привести к серьезным сбоям в функционировании системы библиографической информации.