![Фото Alexandra_Koch/pixabay.com (Pixabay License)](http://i.content-review.com/s/f840fc7ce6769d814f675114bb53511a.png)
Есть и другие примеры того, как генеративные алгоритмы в совокупности с другими технологиями действительно могут увеличить эффективность работы с информацией. В Яндекс Лавке сделали такую связку — технология распознавания текста OCR распознает информацию на этикетке продукта, а YandexGPT генерирует его описание. Ранее контент-менеджеру нужно было забивать все данные вручную, что попросту долго, не говоря об ошибках и опечатках (попробуйте заполнить карточку о продукте с двумя десятками характеристик), а после этого еще и придумывать задорное описание, иначе продукт (если это не что-то массовое) попросту не найдут и не купят.
И здесь мы возвращаемся к тому, зачем вообще создаются алгоритмы, роботы, вот это все? Романтики в прошлом веке рассуждали довольно конкретно — вкалывают роботы, а не человек. Человек созидает. Написание сложных текстов, которыми несомненно являются курсовые работы и рефераты, это как раз созидание.
Впрочем, путь саморегулирования и самоцензуры, на которые встали отечественные генеративные языковые модели, будь то Gigachat Сбера или YandexGPT Яндекса, постепенно приведет к тому, что ничего кроме описания продуктов для карточек в базе данных применять их уже не получится. Может оно и к лучшему, ибо западные коллеги давно уже бьют в набат по поводу того, что слишком активно стали плодиться и размножаться сайты, контент которых генерирует какой-нибудь ChatGPT, а вторичность этих текстов (и, соответственно, количество фактических ошибок и прочей конспирологии) уже вышла на третий-четвертый уровень.