ИИ помощники в кодинге

и чё, понимает как “воды по колено, а рыбы до хрена” ???

Whisper и не должен понимать, это STT моделька - переводить речь в текст, с чем он и справляется с русским языком из коробки. “Пониманием” занимается другая моделька, у меня там включена довольно слабая, поэтому налажала.

Бондаренко говорит, что у него собственная модель:

О, он подфайнтюнил модельку 15-летней давности, прикольно. Говорит, что превосходит whisper large, но сравнивает почему-то с медиумом на своём гитхабе. Ну молодец, но я пишу две строки кода, типа import whisper/large, go, и получаю в целом результат не хуже, чем у него, только затратив две секунды, а, ну и ещё лекций я не читаю. Но пусть хоть так, тоже неплохо, да.

Тут поднимается опять древний философский вопрос насчёт “сделано у нас”. Ну вот ардуина, придумана в италии, изготовлена в китае, прошивку написали мы здесь - можно ли считать, что устройство “сделано у нас”? И да, и нет. Ну вот и тут примерно то же ))

У одной семиклассницы спросили как звали гитлера, она ответила, что его звали капут.

я дико извиняюсь… :slight_smile:

Мы с начальником в НИИ
Проектируем ИИ
А уже потом ИИ
Проектирует хуи

3 лайка

А как вам такая новость, благородные доны?

Как то все это тревожно. GPT4o только с третьего прохода научился освобождать память после new у мня.

Это клон leetcode.com ИИ тут нет ))

ну, это дискуссионный вопрос. Поскольку в природе не существует сколько-нибудь внятного определения ИИ, можно бесконечно спорить, где он есть, а где - нет.

Критерий Тьюринга - не?
Или затык на определении “искусственный”?

Да, просто нет общепринятого определения. Вообще, это не научный термин, а журналистский.

Некоторые считают, что chatgpt тест Тьюринга уже прошёл. А так-то это всё пока что нейросеть, средняя статистика.

Исследователи: ИИ не идёт на пользу программистам, а лишь добавляет ошибок - 4PDA

Я об этом говорил более года назад … долго же доходит до исследователей …

1 лайк

ну так скормили всю базу, получили то, что получили…проблема не ИИ как такового, проблема плохих данных, ИМХО

1 лайк

Не очевидно.
Если взять пару дюжин шедевров мировой классики и понадергать из них предложений, то с наибольшей вероятностью мы получим откровенный бред, а не шедевр, превосходящий все до него написанное.

Я тут был на конференции Gartner по ии, они, короче, считают, что “ии технология” вышла уже на плато принятия, ну это вот этот горб на графике, где там развитие-ожидание-пик-встроили в каждую мобилку, так вот они уже спозиционировали позицию на графике в принятие; плато продуктивности; то есть всё; “умнее” оно уже не станет, и отбирать одежду и мотоцикл не будет; расходимся. В принципе, согласен с ними.

Это и не требуется. Важна скорость принятия единственно правильного решения. Как говорят, кто первый встал, того и тапки. Только по этому и дальше будет развиваться ИИ

Никто и не говорит, что ИИ не будет дальше развиваться, но - уже не на основе нейросетей и перемножения матриц, нужно что-то новое. Всё, рисовалка рисует что сказали, чатгпт хорошо пишет текст, картинки распознаются и “понимаются”, речь в текст и обратно преобразуются. Но оно не трансформируется в AGI, “понимания” как не было, так и нет. Дальнейшее развитие технологии текущего “ии” им видится в повседневном внедрении, в каждую мобилу, и в итоге, чтобы чип за 1 цент всё это делал быстро и железячно. Качественный переход дальше и выше - это уже что-то следующее, другое. А может, и то же самое, но пока не нашлось топовых учёных, чтобы это дальше куда-то продвигать, ну пытаются, пытаются :slight_smile:
Ну, представьте, как с процессорами, вот прошли путь от 1 МГц до 6 ГГц, а дальше на кремнии уже всё, приехали, ну дотянем оптимизации до 10 ГГц допустим, и так уже там электроны сваливают на соседнюю дорожку самопроизвольно, настолько всё мелкое, но для скачка до 100 ГГц уже нужно всё же что-то новое, иное. Вот, гартнер считает что ии сейчас на уровне, как 6 ГГц а-ля i9-14900k )) ИИ ещё там чуть-чуть подтюнится, доучится рисовать пальцы (уже на самом деле норм), будет в каждом утюге, а дальше посмотрим. Учитывая, что нейросетям 70 лет от роду, а железки дотянулись вот только сейчас подсчитать работы тех математиков, ну, через 50-70 лет дети-внуки посмотрят на результаты работы сегодняших алгоритмов, которые разрабатывают учёные )) А может и быстрее, как знать ))