GigaChat. И ляпай. Но ляпай уверенно
Почему вообще эти чаты врут? Фантазируют или искажают информацию. Как это работает? Они же берут информацию из всего того, что есть в сети. Недавно китайский ИИ мне фантазировал, приписал существующему писателю несуществующее произведение. А вот что мне грефовский гигачат выдал:
"Примером является советский физик-теоретик Елена Боннер, супруга Андрея Сахарова, известная своей научной
деятельностью и правозащитной работой"
Откуда он взял то, что Боннер была физиком?
Это было, кстати, часть его ответа про женщин в науке. С чего он вообще её приплел?
Вероятно, где-то на просторах сети был текст, вот ИИ и притащил инфу из него.
Они же не проверяют их на достоверность, это в Википедии нужна ссылка на источники, а ИИ просто ищет по ключевым словам и систематизирует то, что когда-то публиковалось.
Вот я и удивлена.
1. Вряд ли в сети вообще может быть информация о выдающемся физике Боннер.
2. Как он вообще выстроил цепочку до Боннер? Про политику в моем вопросе не было ничего.
По ключевым словам вопроса: женщины, наука, ученые, Нобелевские лауреаты он нашел Сахарова, хотя у него премия за мир:), он его отбраковал, т.к. Сахаров мужчина, но подцепил его жену и "придумал", что она физик известный. Такая кривая логика?
Да. Брехунам Википедии нужны ссылка на источники😆🤣
Эти же брехуны Википедии фейки под себя и шлепают.
Вы почитайте, как вообще работает ИИ. В данном случае он мог ее "приплести" тупо из-за Сахарова, просто по частоте упоминаний слов в каждом источнике (условно, есть некая тетка, что имя часто встречается вместе со словом "физика", а то, что это не ее физика, знать он уже не может), остальное строит сам, исходя из ложного предположения...
Вот так и выглядит замещение людей ИИ, о котором на вех углах кричат те, кто с этим ИИ никогда не работал специально. маркер 100%.
Они берут информацию из интернета - вы же сами ответили :) Это ведь интернет, детка, тут только правду пишут и ничего кроме правды :)
Был текст "Елена Боннер, супруга Андрея Сахарова, советского физика-теоретика, правозащитница". По ключевым словам "женщина+наука" ИИ скомпилировал предложение. Женщина есть? Наука есть? - получите ответ.
Ранее ИИ говорил, что у него нет информации на какой-то заданный ему вопрос, потом по какой-то причине поменялся подход (запретили ему что ли или еще что) и он стал выдумывать. Юристы в панике стали говорить, что ИИ выдает несуществующие статьи законов, идут следом проверять, а там либо такого нет, либо другое написано. Или спросила про одного человека и удивительную биографию ИИ мне выдал: до революции у него было то-то и то, после революции он выучился и стал известным ученым в такой-т сфере, что чисто физически быть не должно, он уже умереть должен быть. Лезу сама разбираться, оказалось, что на одном форуме про вторую часть биографии этого человека было написано в точности, как ИИ скопировал, только далее в этом же форуме другие люди уточнили, что в первом случае речь шла про отца, а во втором случае автор ошибся и эта информация была про сына. Автор признал свою ошибку, да, мол, не посмотрел на инициалы, ваша правда. А ИИ эту последующую информацию не проанализировал и у него такая ерунда и вышла.
Надо промпт составлять правильно. Надо прям в промпте указывать что-то типа "дай только проверенную информацию".
Вообще, промпт-инжиниринг - профессия будущего, да.
А так - ИИ не компилирует. Он делает наиболее логичные с точки зрения модели (!) выводы на основании собранной под запрос информации. Короче, он делает те же самые ошибки, что и естественный интеллект )))
Не компилирует, но собирает то, что кто-то из людей когда-то написал в сети.
Вот викиПедия врет, клепает ложь, а ИИ тупо повторяет...
Инга, вы в них разбираетесь? можете некоторые вопросы растолковать?
я к дипсику пристрастилась в ключе данные в разных файлах сравнивать. Вполне толково сравнивает, но иногда как замыкает его, тупит. Я уже глазами все вижу, а он нет. Под эти мои запросы китаец более менее понимает что я хочу, алиса хуже.
Слышала я что платный чат джипити умнее и в него можно много пдф файлов сгружать на анализ данных. Это правда? Вот думаю может платную иишку завести... есть смысл?
Платный чат джипити умнее, да.
Дипсик чаще тупит и путается. Последнее обновление чата джипити клянется, что лучше держит контекст и лучше анализирует. Я правда пока его не тестировала, верю на слово)
Он периодически откровенно лжет. Недавно спорила с Qwen Chat, он мне выдавал неправильную информацию по русскому языку. Я просила найти правила в справочниках Лопатина и Розенталя. Он мне уверенно выдавал параграфы, какие-то правила писал и примеры. Я искала это в скачанных справочниках в разных изданиях, этого там не было. Я его мучила запросами на одну и ту же тему раз 10. В итоге он сказал, что вы очень дотошны, я не имею полного доступа к запрошенным справочникам, поэтому придумал примеры, подходящие под ваш запрос.
Вот. Коллеги отдельно парятся тем, как написать промпт так, чтобы он ничего не придумывал и честно признавался, что не находит инфу.
Мне кажется, это у него на программном уровне - не признаваться, что чего-то не знаешь и не можешь найти.
Вообще написать промпт, чтобы обойти «заводские настройки» - это сложно. Я как-то неделю с ним билась и уговаривала научиться обходить встроенную цензуру, и вроде даже получилось, потом вышло обновление - и опять сначала.
Вообще, в правильно заданном вопросе содержится 90% ответа, это еще классики говорили ))
... а я, как постановщик задач, подтверждаю.... ))
Это та самая встроенная цензура. Он не будет действовать в нарушение чьих-то авторских прав, и сразу об этом говорит
Это очень страшно, на самом деле, потому что потом все будет неправильное вокруг. Ну вот как раньше книги печатали и люди знали, что ошибок там быть НЕ МОЖЕТ. Если закрались ошибки. то вот они, на отдельном листочке все три выписаны. Читать следует так.
А теперь с каждым днем все меньше смотрим на орфографию, на смысл, на верные расчеты, а эти гпт-чаты вообще 90% чушь несут.
Ну и все. Конец миру через несколько лет. Учиться никто не будет, будут спрашивать у гпт-чата, он ответит ерунду, техника выйдет из строя, самолеты начнут падать на лету, заводы взрываться, хирурги промахиваться, еда изначально станет опасной и пздц.
На самом деле гораздо страшнее было бы, если бы ИИ работали безупречно, потому что - а зачем тогда люди? Зачем нанимать людей, если все сделает иишка и сделает лучше?
При наличии современных технологий создания фейков и манипулирования трактовки новостей мы давно уже живем в подмененной реальности. Только то, что видишь вживую - верно, и то не всегда:)
Не страшнее, чем сейчас. Сейчас как раз всё неправильное вокруг.
Общество постэкспертности, блиад. Довели игры с толерантностью и "равноправием" до того, что почему-то решили, что МНЕНИЯ -равноценны...
вон, в любом евском топике - народ ТИПА ЗНАЕТ, что пластик катастрофически вреден, а масло - катастрофически полезно )))))) ... при этом, вопросы: "Кому? В каких условиях? С какими ограничениями?" даже и не думают задаваться.
Страшнее. Даже умные люди стали спрашивать у ИИ, чего уж о дураках говорить((
Какое масло, какой пластик...
А вот это как раз нормально. ИИ - это просто еще один инструмент.
А любым инструментом надо УМЕТЬ пользоваться.
Вам известна международная аудиторская компания «Делойт»? Почитайте последние новости про нее, сильно удивитесь)
Ну кстати в источниках, которые мне составляет чат джипити в конце ответов, действительно на первом месте всегда идет реддит 🫣
Потому что совсем другой принцип работы. Это же не поисковик)
Мне нравится, как он библиографические ссылки делает) вспоминается
"У вас же нет птиц!" - "Но могли бы быть!" :)
Ладно ссылки))
Я тут на днях читала с его помощью один фик на китайском. Смотрю, он вставляет целые абзацы с отсебятиной. Ну нет такого в исходнике, моих знаний хватает, чтобы увидеть несоответствия. Спрашиваю, мол, дорогой, что за фигня?
Он на голубом глазу выдает буквально, цитирую: мне показалось, так будет лучше
Милый))))
Скажи, а эти ссылки существуют в реальности? - Конечно, нет. Но если бы существовали - выглядели бы именно так. :)
Здесь будет вопрос к тому, кто учебники пишет)
Каждая очередная версия GPT опирается на данные до момента ее выхода. И если ИИ спрашивать о том, что присходит в той или иной сфере сейчас, это будет лишено смысла - он просто спрогнозирует. Но людям уже не хочется думать, им удобнее использовать красивые слова, которые кто-то написал за них. Увы))
Да вообще интернет врет не только чаты. Спросила можно ли с переломом пальца без гипса в баню, ответы нет, а травматологи в один голос, идите лучше срастется, только все в меру.
Большие языковые модели ничего не знают о реальности. У них нет здравого смысла. Они подбирают слова по тому, как эти слова следуют одно за другим по принципу наибольшей вероятности. Они часто угадывают, но нередко "врут". Мы это называем галлюцинациями. Возмущаться и удивляться бесполезно - галлюцинации пока победить не удается.
Ахахаха))) у меня в 16 лет было собеседование в колледж, спросили кому дали премию мира....
а я так переволновалась, что единственное что вспомнила - мужу Елены Боннэр... а как его звали - забыла... до слез... и вот меня комиссия пытала - а как звали -то мужа? а за что премию?
а я стою - мне 16 - у меня любофф, морковь, лето, платьица и птички в голове стрекочут.....
Муж Елены Боннэр))))))))))))))) боооже.....
