Перейти к публикации
  • Сейчас на странице   Всего пользователей: 4   (2 пользователя, 2 гостя)

Rooster

Программирование[11]

var  

298 пользователей проголосовало

У вас нет прав на голосование в этом опросе, или на просмотр результатов опроса. Пожалуйста, войдите или зарегистрируйтесь для голосования в опросе.

Рекомендованные сообщения

(изменено)
Vova написал 5 часов назад:

а не от модели.

ты помоему не понимаешь что нам абсолютнейше похуй на модель

нам не похуй на конечный продукт. если чатгпт сделают продукт который лучше выполняет практические задачи то даже если там модель полная хуйня - они с большой вероятностью выиграют гонку, и мое предпочтение. и если гугл нарпавил силы на модель а не на продукт и как следствие проиграл - то они некомпетентные пидарасы.


Изменено пользователем Just.Doit

 

очень крутые котейки

RqvSzvr.png


Кому-то пизды дал - нужно сделать скрин обязательно. (с) Solo

Поделиться сообщением


Ссылка на сообщение
Vova написал 12 часов назад:

Чел боже мой ты знаешь как устроена Leaderboard Arena хоть? Берут для варианта ответа и чел из интернета выбирает лучший

 

Так что несешь хуйню это раз

сказал чел который принес фейк инфу с рассчитаной ценой за ебучий токен без учета сколько твоя гемини ебаная тратит этих токенов

че ты вообще знаешь? ареной блять меня удивил ахуеть

на арене ты лев толстой, а на деле хуй простой

https://artificialanalysis.ai/models/#cost-to-run-artificial-analysis-intelligence-index

Vova написал 12 часов назад:

Походу ты даже не использовал Deep Research ни разу ни у одной из моделей

 

походу ты себе чето придумал

Поделиться сообщением


Ссылка на сообщение
Drakonian написал 9 часов назад:

сказал чел который принес фейк инфу с рассчитаной ценой за ебучий токен без учета сколько твоя гемини ебаная тратит этих токенов

 

А как надо считать если не через токен?)))))))))))

 

Сколько тратит? Столько сколько ты попросишь?)

Drakonian написал 9 часов назад:

на арене ты лев толстой, а на деле хуй простой

 

Ну можно академические бенчмарки посмотреть - там ситуация еще лучше у Gemini

Drakonian написал 9 часов назад:

 

Ну и? Gemini дешевле там если сравнивать яблоки с яблоками

 

image.png.35cd74cb82b83143dfa0f3da6f819c88.png

Just.Doit написал 16 часов назад:
Vova написал 21 час назад:

а не от модели.

ты помоему не понимаешь что нам абсолютнейше похуй на модель

нам не похуй на конечный продукт. если чатгпт сделают продукт который лучше выполняет практические задачи то даже если там модель полная хуйня - они с большой вероятностью выиграют гонку, и мое предпочтение. и если гугл нарпавил силы на модель а не на продукт и как следствие проиграл - то они некомпетентные пидарасы.

 

 

)))))))))))))))

 

Вот это экспертное мнение подъехало

 

Ну расскажи может какой у OpenAI продукт кроме моделей?

Drakonian написал 9 часов назад:

походу ты себе чето придумал

 

Ну ты говоришь что тебе там если когда-либо нужен огромный контекст?

 

А зачем тебе контекст то? Куда важнее выбор этого контекста а не размер. Щас модели все передовые используют https://en.wikipedia.org/wiki/Retrieval-augmented_generation

 

Конечно если ты просто копипастишь всю свою кодобазу в модель это очень грустно

 

Если б ты пользовался каким то IDE с нормальной индексацие и в целом интеграцией с GenAI то таких разговоров про размер контекста не возникало бы думаю


towBCf6.pngimage.png.6f88ac9ad688355eb803ba0b32e309ca.pngimage.png.c05354238865437022b3e4a97a835dbd.pngimage.png.0e8329f2b07e208ae8ef4e3f6878d126.png

 

 

 

Поделиться сообщением


Ссылка на сообщение
(изменено)
Vova написал 51 минуту назад:

А как надо считать если не через токен?)))))))))))

 

через фактическую цену применения
разные LLM по разному тратят токены, в этом поинт
 

Vova написал 51 минуту назад:

Ну и? Gemini дешевле там если сравнивать яблоки с яблоками

 

дешевле, но не так как показано на твоей картинке что мол самая дешевая ахуй
токен может и дешевый, но фактическое применение уже далеко не так вкусно как расписывают маркетологи

 

Vova написал 51 минуту назад:

Конечно если ты просто копипастишь всю свою кодобазу в модель это очень грустно

 

Если б ты пользовался каким то IDE с нормальной индексацие и в целом интеграцией с GenAI то таких разговоров про размер контекста не возникало бы думаю

я как раз таки так и не делаю, а передаю по миниумуму, в том же курсоре ты может указывать конкретные папки или файлы в контексте своего запроса, что я и делаю

то есть мне не понятно зачем джемини нужна кроме контекста и специфических задачах где это окно необходимо
я вижу что по бенчмарках джемини высоко, но на практике когда пытаюсь её использовать то результат меня вообще не радует
просто мой личный опыт использования разных LLM

Или у тебя есть примеры где джемини лучше o3 / o4-mini-high / claude 3.7 ? Буквально где оно код лучше пишет, есть такие? Я бы глянул с интересом

Vova написал 51 минуту назад:

Ну ты говоришь что тебе там если когда-либо нужен огромный контекст?

 

это было чисто мое предположение зачем нужен гемини, наверное из-за контекста
 


Изменено пользователем Drakonian

Поделиться сообщением


Ссылка на сообщение
Vova написал 51 минуту назад:

Ну расскажи может какой у OpenAI продукт кроме моделей?

боты DotA 2 странно что ты не знаешь этого

Lotus, IceSpirit-_-, morency и 2 другим понравилось это

Поделиться сообщением


Ссылка на сообщение
Vova написал 52 минуты назад:

Ну расскажи может какой у OpenAI продукт кроме моделей?

 
 

Windsurf :zatrolka_tupostu:

Поделиться сообщением


Ссылка на сообщение

Если вы пользуетесь ИИ по токенам, оно вам уже вряд ли поможет. 


 

 

doc137399519_225147917?hash=61dbe6de1d450a42e7&dl=3361c54861ae5a77cb&wnd=1

Поделиться сообщением


Ссылка на сообщение
(изменено)
Vova написал 4 часа назад:

Ну расскажи может какой у OpenAI продукт кроме моделей?

что ты называешь под словом "модель" в этом случае?

 

тк ты начинал про цену токенов у модели - я думал под моделью подразумевается сама LLM. RAG и запихивание контекста (файлы с кодобазой) это не LLM, тоесть не часть моедли, если под моделью мы подразумеваем именно LLM. Если говорить про это то у chatgpt вообще нету LLM как продукта которыми я пользуюсь.

 

Если ты под моделью подразумевал не LLM, а все решение, включающее RAG и контекст самого чата и тп - то тогда не понятно почему для такой модели стоиомсть токенов запихиваемых в LLM является основной метрикой. там куда важнее ряд других параметров. Какой контекст конкретно используется, как выибрается когда какую предобработку сделать, как делается поиск по интернету или базе знаний и тп.

ну и для меня это сложно называть моделью, это полноценный продукт, включающий множество подмоделей, различной логики и алгоритмов, возможный поиск в интернете или векторной базе. наверное можно для этого использовать слово "модель", но мне куда логичнее это называть софтверным продуктом. а то так дойдем что любую программу будем называть моделью зачем-то.

 

UPD: я погуглил (погептнул)

выясняется что RAG в оригинальной первыой статье -  это действительно единая ML модель

но дальше это переросло в целый паттерн. и сейчас это не ялвяется моделью, которую обучают. это обычно называется пайплайн.

в этом плане, OpenAI вообще не имеет модели как конечного b2c продукта. это в лучшем случае пайплайн, а в худшем - произвольный софтверный продукт, который помимо пайплайна включает сам чат, UX/FE, бд с контекстом разных чатов, разные автоматизации поверх чата типа приложений или препромптов и тп.


Изменено пользователем Just.Doit

 

очень крутые котейки

RqvSzvr.png


Кому-то пизды дал - нужно сделать скрин обязательно. (с) Solo

Поделиться сообщением


Ссылка на сообщение

спорить с вовой :onneponimaet:


VyMEtE8XtOI.jpg

  лучшая цитата финта+жизненная

XbkBCDXetHY.jpg

Поделиться сообщением


Ссылка на сообщение
Drakonian написал 11 часов назад:

в том же курсоре

 

То есть мы уже говорим не о каком то там ВООБЩЕ практическом использовании Gemini  или OpenAI а конкретно о использовании Cursor

 

:roflanebalo:

Drakonian написал 11 часов назад:

то есть мне не понятно зачем джемини нужна

 

Затем что капитализация OpenAI и DeepMind в сотни раз больше чем у Cursor

Drakonian написал 11 часов назад:

Или у тебя есть примеры где джемини лучше o3 / o4-mini-high / claude 3.7 ? Буквально где оно код лучше пишет, есть такие? Я бы глянул с интересом

Vova написал 12 часов назад:

 

 

Типо гуглишь reddit gemini 2.5 code и читаешь?

 

Я уже писал что меня поразило качество gemini 2.5 deep research - к коду это никак не относится

 

Я вообще сомневаюсь что для code autocompletion нужны такие больше и general  модели

 

Когда мы делали внутренний IDE AI assistant мы взяли PALM (модель многократно слабее Gemini 1.0) и сделали finetuning ее на коде


towBCf6.pngimage.png.6f88ac9ad688355eb803ba0b32e309ca.pngimage.png.c05354238865437022b3e4a97a835dbd.pngimage.png.0e8329f2b07e208ae8ef4e3f6878d126.png

 

 

 

Поделиться сообщением


Ссылка на сообщение
(изменено)
Vova написал 6 часов назад:
Drakonian написал 18 часов назад:

в том же курсоре

 

То есть мы уже говорим не о каком то там ВООБЩЕ практическом использовании Gemini  или OpenAI а конкретно о использовании Cursor

 

:roflanebalo:

Drakonian написал 18 часов назад:

то есть мне не понятно зачем джемини нужна

 

Затем что капитализация OpenAI и DeepMind в сотни раз больше чем у Cursor

Drakonian написал 18 часов назад:

Или у тебя есть примеры где джемини лучше o3 / o4-mini-high / claude 3.7 ? Буквально где оно код лучше пишет, есть такие? Я бы глянул с интересом

Vova написал 18 часов назад:

 

 

Типо гуглишь reddit gemini 2.5 code и читаешь?

 

Я уже писал что меня поразило качество gemini 2.5 deep research - к коду это никак не относится

 

Я вообще сомневаюсь что для code autocompletion нужны такие больше и general  модели

 

Когда мы делали внутренний IDE AI assistant мы взяли PALM (модель многократно слабее Gemini 1.0) и сделали finetuning ее на коде

сорри но ты походу тот курсор в жизни не открывал
это не про code autocompletion

нет мы не говорим про курсор, мы говорим про модели, курсор упомянут как один из инструментов доступа к разным моделям в одном месте
какая разница какая капитализация у IDE которая использует другие модели, пчел?

image.png.a0736a3f6e5a7017a5fee5a32c386dfb.pngа я сразу написал про код, а ты мне свой рисерч пихаешь
 

Just.Doit написал 09.05.2025 в 18:11:
Drakonian написал 09.05.2025 в 15:21:

для кода*

а для не кода?

 

 

Не имею достаточно опыта, в основном на автомате юзаю GPT 4.5 для написание писем или переводов, когда кончаются лимиты юзаю o3. Но 4.5 лучше с этим справляется намного лучше.


Изменено пользователем Drakonian

Поделиться сообщением


Ссылка на сообщение

приходишь почитать про литкод, а в итоге читаешь разговоры с вовой

Поделиться сообщением


Ссылка на сообщение
Olololnet написал 7 минут назад:

приходишь почитать про литкод, а в итоге читаешь разговоры с вовой

никому твой литкод нахуй не нужон

Drakonian и madvlaydin понравилось это

VyMEtE8XtOI.jpg

  лучшая цитата финта+жизненная

XbkBCDXetHY.jpg

Поделиться сообщением


Ссылка на сообщение
scarppy написал 2 часа назад:
Olololnet написал 2 часа назад:

приходишь почитать про литкод, а в итоге читаешь разговоры с вовой

никому твой литкод нахуй не нужон

расскажешь потом как тебя размотали на собес в топ компанию и пришлось в шаражку пойти

Поделиться сообщением


Ссылка на сообщение

топ это когда раунд собеса длится по 3-6 месяцев?
или когда надо год дрочить литкод чтобы потом круды клепать?

по факту на том литкоде из полезного это пройти базовые операции с массивами, так как это в работе реально пригодится
а так секта литкода ради литкода, хз

Поделиться сообщением


Ссылка на сообщение
Drakonian написал 13 часов назад:

а так секта литкода ради литкода, хз

секта литкода ради зп в 500к$


 

очень крутые котейки

RqvSzvr.png


Кому-то пизды дал - нужно сделать скрин обязательно. (с) Solo

Поделиться сообщением


Ссылка на сообщение
Just.Doit написал 1 час назад:
Drakonian написал 14 часов назад:

а так секта литкода ради литкода, хз

секта литкода ради зп в 500к$

да конечно

каждый первый литкодовец по 500к лутает

а еще каждый дефолтный синьйор хайрится на L5-L6-L7

image.png.908914789d4ce573ed3fea40fb5f1827.png

Поделиться сообщением


Ссылка на сообщение

геи программисты решают литкод

что бы дальше других программистов заставлять знать литкод задачи

апнулся в зп кста на 2500$+ переехал
ласт месяц баги фикшу, никаких литкодов


VyMEtE8XtOI.jpg

  лучшая цитата финта+жизненная

XbkBCDXetHY.jpg

Поделиться сообщением


Ссылка на сообщение
(изменено)
Drakonian написал 4 часа назад:

каждый первый литкодовец по 500к лутает

ну речь не про гермаху, и речь не про каждого первого а про то что если хочешь 500к, это литкод это один из ключиков который это открывает на пути 500к за стаффа в US/CH

 

собственно логика такая

решил литкод - получил шанс попасть в фаанг на л4/л5

через несколько лет дошел до л6, перевелся в юса/свис, начал лутать 500к

но даже если не 500к

то топ тир рынка. вне литкода такие цифры это редкость


Изменено пользователем Just.Doit

 

очень крутые котейки

RqvSzvr.png


Кому-то пизды дал - нужно сделать скрин обязательно. (с) Solo

Поделиться сообщением


Ссылка на сообщение
Just.Doit написал 4 минуты назад:
Drakonian написал 4 часа назад:

каждый первый литкодовец по 500к лутает

ну речь не про гермаху, и речь не про каждого первого а про то что если хочешь 500к, это литкод это один из ключиков который это открывает на пути 500к за стаффа в US/CH

 

конечно попасть в US/CH оч легко)))))))

давай еще все таки учтем то что ты можешь решить 200 задач изи-мид-хард
и этого совсем будет недостаточно чтобы даже просто попасть в фаанг

дальше тебе еще нужно будет задрачивать поведенческие и системные секции
искать моки и рефералы
и даже это тебе нихуя не гарантирует шанс на успех чтобы просто попасть в фаанг

потом вакансий L5+ для людей без опыта в фаанг тупо не будет, а то небольшое количество что будет ты хуй найдешь
то есть попадешь ты на L3-L4, а выше поднимется далеко не каждый

в общем литкод это очень-очень-очень небольшой шаг на пути к 500к
он конечно необходим, но это просто пиздец как далеко
еще один необходимый шаг для стафа 500к это научится кодить, но мы же это не будем приводить как аругмент что кодинг открывает путь к стафу?

И я напомню этот длинный путь для того чтобы к 40+ лет ковырятся в огромной кодовой базе, которую даже LSP не прогрузит нихуя, гдей любой чендж ломает к хуям 100 зависимостей, ссаться от рандомного лей-оффа, играть в подковровые игры и лизать всем менеджерам чтобы тебя запромоутили


Но по факту в реальности даже задрочив все на свете, скорее всего ты будешь ~200к при должной удаче и времени, где часть будет стоков
ЗП которую можно и другими методами получить не в фаангах

 

ах да еще забыл что инструменты/тулы которые ты будешь в фаанге юзать это самописный кал
и этот опыт тебе никак не поможет на рынке потом

Поделиться сообщением


Ссылка на сообщение

Присоединяйтесь к обсуждению

Вы можете опубликовать сообщение сейчас, а зарегистрироваться позже. Если у вас есть аккаунт, войдите в него для написания от своего имени.

Гость
Ответить в тему...

×   Вставлено в виде отформатированного текста.   Восстановить форматирование

  Разрешено не более 75 эмодзи.

×   Ваша ссылка была автоматически встроена.   Отобразить как ссылку

×   Ваш предыдущий контент был восстановлен.   Очистить редактор

×   Вы не можете вставить изображения напрямую. Загрузите или вставьте изображения по ссылке.

Загрузка...

×
×
  • Создать...