Есть и другие примеры того, как генеративные алгоритмы в совокупности с другими технологиями действительно могут увеличить эффективность работы с информацией. В Яндекс Лавке сделали такую связку — технология распознавания текста OCR распознает информацию на этикетке продукта, а YandexGPT генерирует его описание. Ранее контент-менеджеру нужно было забивать все данные вручную, что попросту долго, не говоря об ошибках и опечатках (попробуйте заполнить карточку о продукте с двумя десятками характеристик), а после этого еще и придумывать задорное описание, иначе продукт (если это не что-то массовое) попросту не найдут и не купят.
И здесь мы возвращаемся к тому, зачем вообще создаются алгоритмы, роботы, вот это все? Романтики в прошлом веке рассуждали довольно конкретно — вкалывают роботы, а не человек. Человек созидает. Написание сложных текстов, которыми несомненно являются курсовые работы и рефераты, это как раз созидание.
Впрочем, путь саморегулирования и самоцензуры, на которые встали отечественные генеративные языковые модели, будь то Gigachat Сбера или YandexGPT Яндекса, постепенно приведет к тому, что ничего кроме описания продуктов для карточек в базе данных применять их уже не получится. Может оно и к лучшему, ибо западные коллеги давно уже бьют в набат по поводу того, что слишком активно стали плодиться и размножаться сайты, контент которых генерирует какой-нибудь ChatGPT, а вторичность этих текстов (и, соответственно, количество фактических ошибок и прочей конспирологии) уже вышла на третий-четвертый уровень.