GigaChat. И ляпай. Но ляпай уверенно

копировать

Почему вообще эти чаты врут? Фантазируют или искажают информацию. Как это работает? Они же берут информацию из всего того, что есть в сети. Недавно китайский ИИ мне фантазировал, приписал существующему писателю несуществующее произведение. А вот что мне грефовский гигачат выдал:
"Примером является советский физик-теоретик Елена Боннер, супруга Андрея Сахарова, известная своей научной
деятельностью и правозащитной работой"
Откуда он взял то, что Боннер была физиком?
Это было, кстати, часть его ответа про женщин в науке. С чего он вообще её приплел?

копировать

Вероятно, где-то на просторах сети был текст, вот ИИ и притащил инфу из него.
Они же не проверяют их на достоверность, это в Википедии нужна ссылка на источники, а ИИ просто ищет по ключевым словам и систематизирует то, что когда-то публиковалось.

копировать

Вот я и удивлена.
1. Вряд ли в сети вообще может быть информация о выдающемся физике Боннер.
2. Как он вообще выстроил цепочку до Боннер? Про политику в моем вопросе не было ничего.
По ключевым словам вопроса: женщины, наука, ученые, Нобелевские лауреаты он нашел Сахарова, хотя у него премия за мир:), он его отбраковал, т.к. Сахаров мужчина, но подцепил его жену и "придумал", что она физик известный. Такая кривая логика?

копировать

в Википедии нужна ссылка на источники😆🤣
Эти брехуны давно фейки шлепают

копировать

Нет, там всегда есть ссылки на источники, просто вы не дочитываете до них ))))

копировать

Да. Брехунам Википедии нужны ссылка на источники😆🤣
Эти же брехуны Википедии фейки под себя и шлепают.

копировать

Вы почитайте, как вообще работает ИИ. В данном случае он мог ее "приплести" тупо из-за Сахарова, просто по частоте упоминаний слов в каждом источнике (условно, есть некая тетка, что имя часто встречается вместе со словом "физика", а то, что это не ее физика, знать он уже не может), остальное строит сам, исходя из ложного предположения...

копировать

Потому что это не гугл, а LLM. Другой принцип работы.

копировать

Вот так и выглядит замещение людей ИИ, о котором на вех углах кричат те, кто с этим ИИ никогда не работал специально. маркер 100%.

копировать

Они берут информацию из интернета - вы же сами ответили :) Это ведь интернет, детка, тут только правду пишут и ничего кроме правды :)

копировать

Нет, из учат на др источниках

копировать

Тем более, а чего в этих источниках нет, они либо берут из интернета, либо выдумывают.

копировать

Был текст "Елена Боннер, супруга Андрея Сахарова, советского физика-теоретика, правозащитница". По ключевым словам "женщина+наука" ИИ скомпилировал предложение. Женщина есть? Наука есть? - получите ответ.

копировать

После того, как ИИ выдал мне свое определение выражения "бегу, волосы назад" я перестала читать его опусы вообще...

копировать

А зачем его читать? Книг мало?

копировать

А зачем вы гуглите что-либо? В книгах прочесть не можете?

копировать

Ранее ИИ говорил, что у него нет информации на какой-то заданный ему вопрос, потом по какой-то причине поменялся подход (запретили ему что ли или еще что) и он стал выдумывать. Юристы в панике стали говорить, что ИИ выдает несуществующие статьи законов, идут следом проверять, а там либо такого нет, либо другое написано. Или спросила про одного человека и удивительную биографию ИИ мне выдал: до революции у него было то-то и то, после революции он выучился и стал известным ученым в такой-т сфере, что чисто физически быть не должно, он уже умереть должен быть. Лезу сама разбираться, оказалось, что на одном форуме про вторую часть биографии этого человека было написано в точности, как ИИ скопировал, только далее в этом же форуме другие люди уточнили, что в первом случае речь шла про отца, а во втором случае автор ошибся и эта информация была про сына. Автор признал свою ошибку, да, мол, не посмотрел на инициалы, ваша правда. А ИИ эту последующую информацию не проанализировал и у него такая ерунда и вышла.

копировать

Надо промпт составлять правильно. Надо прям в промпте указывать что-то типа "дай только проверенную информацию".

Вообще, промпт-инжиниринг - профессия будущего, да.

А так - ИИ не компилирует. Он делает наиболее логичные с точки зрения модели (!) выводы на основании собранной под запрос информации. Короче, он делает те же самые ошибки, что и естественный интеллект )))

копировать

Не компилирует, но собирает то, что кто-то из людей когда-то написал в сети.
Вот викиПедия врет, клепает ложь, а ИИ тупо повторяет...

копировать

Нет. То, что уже написано - собирают поисковики. ИИ работает иначе.
Как - я уже написала.

копировать

Инга, вы в них разбираетесь? можете некоторые вопросы растолковать?
я к дипсику пристрастилась в ключе данные в разных файлах сравнивать. Вполне толково сравнивает, но иногда как замыкает его, тупит. Я уже глазами все вижу, а он нет. Под эти мои запросы китаец более менее понимает что я хочу, алиса хуже.
Слышала я что платный чат джипити умнее и в него можно много пдф файлов сгружать на анализ данных. Это правда? Вот думаю может платную иишку завести... есть смысл?

копировать

Платный чат джипити умнее, да.
Дипсик чаще тупит и путается. Последнее обновление чата джипити клянется, что лучше держит контекст и лучше анализирует. Я правда пока его не тестировала, верю на слово)

копировать

Разбирается она также, как в ремонте и в воспитании детей - никак))

копировать

В ремонте не разбираюсь и разбираться не собираюсь, это да ))

А с воспитанием - вроде как неплохо получается ))) интересный человек вырисовывается ))

копировать

В тонкостях не разбираюсь. Только общий смысл )))

копировать

Он периодически откровенно лжет. Недавно спорила с Qwen Chat, он мне выдавал неправильную информацию по русскому языку. Я просила найти правила в справочниках Лопатина и Розенталя. Он мне уверенно выдавал параграфы, какие-то правила писал и примеры. Я искала это в скачанных справочниках в разных изданиях, этого там не было. Я его мучила запросами на одну и ту же тему раз 10. В итоге он сказал, что вы очень дотошны, я не имею полного доступа к запрошенным справочникам, поэтому придумал примеры, подходящие под ваш запрос.

копировать

Вот. Коллеги отдельно парятся тем, как написать промпт так, чтобы он ничего не придумывал и честно признавался, что не находит инфу.

копировать

Мне кажется, это у него на программном уровне - не признаваться, что чего-то не знаешь и не можешь найти.
Вообще написать промпт, чтобы обойти «заводские настройки» - это сложно. Я как-то неделю с ним билась и уговаривала научиться обходить встроенную цензуру, и вроде даже получилось, потом вышло обновление - и опять сначала.

копировать

Вообще, в правильно заданном вопросе содержится 90% ответа, это еще классики говорили ))

... а я, как постановщик задач, подтверждаю.... ))

копировать

Это да) Иначе получится «42» - и делай с этим, что хочешь))

копировать

Надо бы ввести в ИИ опцию ответа "42" вместо лживых ответов при недостатке информации, так честнее будет:)

копировать

Ну мне недавно написал: "Я не хочу отвечать на этот вопрос".
Песню просила найти)))

копировать

Это та самая встроенная цензура. Он не будет действовать в нарушение чьих-то авторских прав, и сразу об этом говорит

копировать

А почему бы им не врать? Не фантазировать?
Оне ж у людей учутся))

копировать

Мне дс который раз уже пишет про то, что сейчас февраль 2024.

копировать

Ага. Все время год путает.

копировать

Это очень страшно, на самом деле, потому что потом все будет неправильное вокруг. Ну вот как раньше книги печатали и люди знали, что ошибок там быть НЕ МОЖЕТ. Если закрались ошибки. то вот они, на отдельном листочке все три выписаны. Читать следует так.
А теперь с каждым днем все меньше смотрим на орфографию, на смысл, на верные расчеты, а эти гпт-чаты вообще 90% чушь несут.
Ну и все. Конец миру через несколько лет. Учиться никто не будет, будут спрашивать у гпт-чата, он ответит ерунду, техника выйдет из строя, самолеты начнут падать на лету, заводы взрываться, хирурги промахиваться, еда изначально станет опасной и пздц.

копировать

На самом деле гораздо страшнее было бы, если бы ИИ работали безупречно, потому что - а зачем тогда люди? Зачем нанимать людей, если все сделает иишка и сделает лучше?

копировать

Да пусть бы делала, а люди отдыхали и творчеством занимались. Но она ж все криво сделает((

копировать

Людей нанимать для более сложного, чего ИИ не сделает. И сейчас так и происходит.

копировать

При наличии современных технологий создания фейков и манипулирования трактовки новостей мы давно уже живем в подмененной реальности. Только то, что видишь вживую - верно, и то не всегда:)

копировать

Не страшнее, чем сейчас. Сейчас как раз всё неправильное вокруг.

Общество постэкспертности, блиад. Довели игры с толерантностью и "равноправием" до того, что почему-то решили, что МНЕНИЯ -равноценны...

вон, в любом евском топике - народ ТИПА ЗНАЕТ, что пластик катастрофически вреден, а масло - катастрофически полезно )))))) ... при этом, вопросы: "Кому? В каких условиях? С какими ограничениями?" даже и не думают задаваться.

копировать

Страшнее. Даже умные люди стали спрашивать у ИИ, чего уж о дураках говорить((
Какое масло, какой пластик...

копировать

А вот это как раз нормально. ИИ - это просто еще один инструмент.
А любым инструментом надо УМЕТЬ пользоваться.

копировать

Никто ничего серьезного не считает с помощью этих GTP и прочих.

копировать

Вам известна международная аудиторская компания «Делойт»? Почитайте последние новости про нее, сильно удивитесь)

копировать

Аудиторы - это несерьезно. После британской почты, где народ реальные сроки получал по ошибочным расчетам программы, в финансовом секторе трудно чему-то удивить.

Серьезное - это самолет посчитать. Или ядерный взрыв какой.

копировать

Вот откуда ИИ берёт информацию. С reddit🙈


копировать

(С) составлено ChatGPT

)))

копировать

Ну кстати в источниках, которые мне составляет чат джипити в конце ответов, действительно на первом месте всегда идет реддит 🫣

копировать

Дык я ж и говорю - рекурсия )))

копировать

Потому что совсем другой принцип работы. Это же не поисковик)

Мне нравится, как он библиографические ссылки делает) вспоминается
"У вас же нет птиц!" - "Но могли бы быть!" :)

копировать

Ладно ссылки))

Я тут на днях читала с его помощью один фик на китайском. Смотрю, он вставляет целые абзацы с отсебятиной. Ну нет такого в исходнике, моих знаний хватает, чтобы увидеть несоответствия. Спрашиваю, мол, дорогой, что за фигня?
Он на голубом глазу выдает буквально, цитирую: мне показалось, так будет лучше

копировать

Милый))))

Скажи, а эти ссылки существуют в реальности? - Конечно, нет. Но если бы существовали - выглядели бы именно так. :)

копировать

Во, во, во! И в инструкции добавит, и в учебники...

копировать

Здесь будет вопрос к тому, кто учебники пишет)

Каждая очередная версия GPT опирается на данные до момента ее выхода. И если ИИ спрашивать о том, что присходит в той или иной сфере сейчас, это будет лишено смысла - он просто спрогнозирует. Но людям уже не хочется думать, им удобнее использовать красивые слова, которые кто-то написал за них. Увы))

копировать

Да вообще интернет врет не только чаты. Спросила можно ли с переломом пальца без гипса в баню, ответы нет, а травматологи в один голос, идите лучше срастется, только все в меру.

копировать

Большие языковые модели ничего не знают о реальности. У них нет здравого смысла. Они подбирают слова по тому, как эти слова следуют одно за другим по принципу наибольшей вероятности. Они часто угадывают, но нередко "врут". Мы это называем галлюцинациями. Возмущаться и удивляться бесполезно - галлюцинации пока победить не удается.

копировать

Ахахаха))) у меня в 16 лет было собеседование в колледж, спросили кому дали премию мира....

а я так переволновалась, что единственное что вспомнила - мужу Елены Боннэр... а как его звали - забыла... до слез... и вот меня комиссия пытала - а как звали -то мужа? а за что премию?

а я стою - мне 16 - у меня любофф, морковь, лето, платьица и птички в голове стрекочут.....

Муж Елены Боннэр))))))))))))))) боооже.....

копировать

Скоро ИИ будет беседовать с таким же ИИ.