Перейти к публикации

Vova

User
  • Сообщений

    33 103
  • Зарегистрирован

  • Посещение

  • Дней в лидерах

    1
  • Время онлайн

    308д 2ч 6м 52с

О Vova

  • Звание
    Legendary Flooder
  • День рождения 19.06.2007

Contact Methods

  • Website URL
    http://вынужден скрывать
  • Skype
    вынужден скрывать

Profile Information

  • Gender
    Not Telling
  • Location
    вынужден скрывать
  • Interests
    вынужден скрывать

Посетители профиля

94 498 просмотров профиля
  1. Vova

    Секс и Отношения #10

    Можно но конкретно у нее конкретно в этом видео такое ебало нон стоп Кул стори бро Может у тебя просто падает в гондоне
  2. Ладно идите нахуй вы слишком тупые походу Если мощности на создание чипов забиты на 10 лет вперед то да энергия это точно самый ключевой фактор але, это пакистан? Чел идиот 1) Ну во первых да ИИ нужна энергия но не так уж и много и недостаток именно в чипах а не энергии блять. Энергия это копейки по сравнению с чипами))))))) 2) Электроэнергия не из нефти получается)))))))))))))))))))))) и даже не из газа обычно тк газ тратится на обогрев / химпром 3) США вообще-то экспортер)))))))))))))))))))))))))))))))))))))))))) и у Китая тоже угля до пизды как и ядерных станций и тд Хуясе не много. У одного Маска аппетиты на 2ГВт (два ядерных реактора). А ведь помимо него есть и другие игроки. Плюс наверняка почти все имеющиеся мощности заняты, т.е. нужно строить новую инфраструктуру под этот блудняк (очень много бабок). Вот тебе инфа - как я и сказал электроэнергия это в худшем случае 10% от общей стоимости По поводу имеющихся мощностей - с имеющимися мощностями по производству чипов ВСЕ ЕЩЕ ХУДЕ РАЗ В 10-100 As of early 2026, the best NVIDIA GPU for high-end, heavy-duty neural network training and inference is the NVIDIA H200 (Hopper architecture), with the next-generation B200 (Blackwell) also becoming available. A single NVIDIA H200 GPU typically costs between $30,000 and $40,000. [1, 2, 3] Operating an H200 24/7 for 5 years will incur significant electricity costs, often matching or exceeding the initial purchase price of the hardware due to high power consumption and continuous operation. [4] 1. Cost of the Best NVIDIA GPU (H200 - 2026) Unit Price: $30,000–$40,000 (single H200 NVL/SXM). System Price: An 8-GPU H200 server (often necessary for large-scale training) can exceed $300,000–$500,000. Alternatives: The H100 (80GB) is considered the "workhorse" standard and costs $27,000–$40,000 per unit. [3, 5] 2. Electricity Cost for 5 Years Non-Stop Operation Power Consumption: A single H200/H100 SXM GPU typically operates at up to 700W. Total Energy (5 Years): 700 Watts × 24 hours × 365 days × 5 years = 30,660 kWh per GPU. Electricity Rates: Assuming an average commercial data center rate of $0.15 per kWh, the cost is roughly: Per GPU (5 Years): $4,599 (approx. $4,600). Total Estimated Operating Cost: While the GPU itself draws 700W, the server, cooling, and infrastructure (PUE factor) often bring the total power consumption per GPU to 1kW or more. Therefore, the 5-year operating cost for electricity and cooling per card can easily exceed $6,500–$8,000+. [3, 6, 7, 8] Total 5-Year Cost Per GPU (Card + Energy): ~$36,000–$48,000. 3. Key Factors & Context Break-even: For continuous, 24/7 AI workloads, purchasing H100/H200 GPUs is generally more cost-effective than cloud renting after about 12–18 months of operation. Memory Shortages: 2026 prices are high due to a global VRAM shortage, affecting HBM3e supply. Blackwell (B200) Impact: While B200 is available, H200 remains a top contender due to its 141GB HBM3e memory, which is crucial for running large models without needing to cluster multiple GPUs. [3, 9, 10, 11] Disclaimer: Prices are based on February/March 2026 market estimates and can vary significantly based on supplier, volume, and location. [12] AI can make mistakes, so double-check responses [1] https://www.bestgpusforai.com/blog/best-gpus-for-ai [2] https://www.runpod.io/articles/guides/best-gpu-for-ai-training-2026 [3] https://docs.jarvislabs.ai/blog/h200-price [4] https://www.cnbc.com/2024/03/19/nvidias-blackwell-ai-chip-will-cost-more-than-30000-ceo-says.html [5] https://intuitionlabs.ai/articles/nvidia-ai-gpu-pricing-guide [6] https://www.cloudsyntrix.com/blogs/how-nvidia-blackwell-gpus-are-transforming-cloud-costs-and-revenue/ [7] https://news.ycombinator.com/item?id=45058036 [8] https://northflank.com/blog/best-gpu-for-ai [9] https://www.youtube.com/watch?v=A7wFsp48Be8 [10] https://www.youtube.com/watch?v=oNwQZgq5-Jo [11] https://intuitionlabs.ai/articles/nvidia-ai-gpu-pricing-guide [12] https://www.thundercompute.com/blog/nvidia-h100-pricing >Operating an H200 24/7 for 5 years will incur significant electricity costs, often matching or exceeding the initial purchase price of the hardware due to high power consumption and continuous operation. [4] не дабл-чекнул респонс?) matching or exceeding не похоже на 10% если все равно не веришь, то почему Оракл стока бабок залутал? эта компания не делает чипы или не выпускает модели Я дабл чекнул Ты БЛЯТЬ НЕ МОЖЕШЬ НАЙТИ РАСЧЕТ СТОИМОСТИ ИЛИ ЧТО???? 40'000 стоимость покупки 4'000 стоимость электроэнергии 24/7 на 5 лет хорошо, пусть будет 10%, энивей это не хуйня я уж не говорю о том, что без этой десятины остальные 90% работать не будут Энергию всего можно перераспределить с других вещей Чипы нельзя Потому что это специализированные чипы Ну да когда у тебя 1 юнит хавает под 3-4 киловатта а в датацентрах десятки тысяч юнитов то электричество точно не один из критических ресурсов ага, кроме гидро, угольных и ядерных станций не существует же других видов Да точно не критический ресурс для ИИ как минимум А какие станции еще ты знаешь?)
  3. але, это пакистан? Чел идиот 1) Ну во первых да ИИ нужна энергия но не так уж и много и недостаток именно в чипах а не энергии блять. Энергия это копейки по сравнению с чипами))))))) 2) Электроэнергия не из нефти получается)))))))))))))))))))))) и даже не из газа обычно тк газ тратится на обогрев / химпром 3) США вообще-то экспортер)))))))))))))))))))))))))))))))))))))))))) и у Китая тоже угля до пизды как и ядерных станций и тд Хуясе не много. У одного Маска аппетиты на 2ГВт (два ядерных реактора). А ведь помимо него есть и другие игроки. Плюс наверняка почти все имеющиеся мощности заняты, т.е. нужно строить новую инфраструктуру под этот блудняк (очень много бабок). Вот тебе инфа - как я и сказал электроэнергия это в худшем случае 10% от общей стоимости По поводу имеющихся мощностей - с имеющимися мощностями по производству чипов ВСЕ ЕЩЕ ХУДЕ РАЗ В 10-100 As of early 2026, the best NVIDIA GPU for high-end, heavy-duty neural network training and inference is the NVIDIA H200 (Hopper architecture), with the next-generation B200 (Blackwell) also becoming available. A single NVIDIA H200 GPU typically costs between $30,000 and $40,000. [1, 2, 3] Operating an H200 24/7 for 5 years will incur significant electricity costs, often matching or exceeding the initial purchase price of the hardware due to high power consumption and continuous operation. [4] 1. Cost of the Best NVIDIA GPU (H200 - 2026) Unit Price: $30,000–$40,000 (single H200 NVL/SXM). System Price: An 8-GPU H200 server (often necessary for large-scale training) can exceed $300,000–$500,000. Alternatives: The H100 (80GB) is considered the "workhorse" standard and costs $27,000–$40,000 per unit. [3, 5] 2. Electricity Cost for 5 Years Non-Stop Operation Power Consumption: A single H200/H100 SXM GPU typically operates at up to 700W. Total Energy (5 Years): 700 Watts × 24 hours × 365 days × 5 years = 30,660 kWh per GPU. Electricity Rates: Assuming an average commercial data center rate of $0.15 per kWh, the cost is roughly: Per GPU (5 Years): $4,599 (approx. $4,600). Total Estimated Operating Cost: While the GPU itself draws 700W, the server, cooling, and infrastructure (PUE factor) often bring the total power consumption per GPU to 1kW or more. Therefore, the 5-year operating cost for electricity and cooling per card can easily exceed $6,500–$8,000+. [3, 6, 7, 8] Total 5-Year Cost Per GPU (Card + Energy): ~$36,000–$48,000. 3. Key Factors & Context Break-even: For continuous, 24/7 AI workloads, purchasing H100/H200 GPUs is generally more cost-effective than cloud renting after about 12–18 months of operation. Memory Shortages: 2026 prices are high due to a global VRAM shortage, affecting HBM3e supply. Blackwell (B200) Impact: While B200 is available, H200 remains a top contender due to its 141GB HBM3e memory, which is crucial for running large models without needing to cluster multiple GPUs. [3, 9, 10, 11] Disclaimer: Prices are based on February/March 2026 market estimates and can vary significantly based on supplier, volume, and location. [12] AI can make mistakes, so double-check responses [1] https://www.bestgpusforai.com/blog/best-gpus-for-ai [2] https://www.runpod.io/articles/guides/best-gpu-for-ai-training-2026 [3] https://docs.jarvislabs.ai/blog/h200-price [4] https://www.cnbc.com/2024/03/19/nvidias-blackwell-ai-chip-will-cost-more-than-30000-ceo-says.html [5] https://intuitionlabs.ai/articles/nvidia-ai-gpu-pricing-guide [6] https://www.cloudsyntrix.com/blogs/how-nvidia-blackwell-gpus-are-transforming-cloud-costs-and-revenue/ [7] https://news.ycombinator.com/item?id=45058036 [8] https://northflank.com/blog/best-gpu-for-ai [9] https://www.youtube.com/watch?v=A7wFsp48Be8 [10] https://www.youtube.com/watch?v=oNwQZgq5-Jo [11] https://intuitionlabs.ai/articles/nvidia-ai-gpu-pricing-guide [12] https://www.thundercompute.com/blog/nvidia-h100-pricing >Operating an H200 24/7 for 5 years will incur significant electricity costs, often matching or exceeding the initial purchase price of the hardware due to high power consumption and continuous operation. [4] не дабл-чекнул респонс?) matching or exceeding не похоже на 10% если все равно не веришь, то почему Оракл стока бабок залутал? эта компания не делает чипы или не выпускает модели Я дабл чекнул Ты БЛЯТЬ НЕ МОЖЕШЬ НАЙТИ РАСЧЕТ СТОИМОСТИ ИЛИ ЧТО???? 40'000 стоимость покупки 4'000 стоимость электроэнергии 24/7 на 5 лет Спроси у ИИ блять нахуй ты меня спрашиваешь Вопрос был про электроэнергию vs стоимость чипов а не про Оракл
  4. але, это пакистан? Чел идиот 1) Ну во первых да ИИ нужна энергия но не так уж и много и недостаток именно в чипах а не энергии блять. Энергия это копейки по сравнению с чипами))))))) 2) Электроэнергия не из нефти получается)))))))))))))))))))))) и даже не из газа обычно тк газ тратится на обогрев / химпром 3) США вообще-то экспортер)))))))))))))))))))))))))))))))))))))))))) и у Китая тоже угля до пизды как и ядерных станций и тд Хуясе не много. У одного Маска аппетиты на 2ГВт (два ядерных реактора). А ведь помимо него есть и другие игроки. Плюс наверняка почти все имеющиеся мощности заняты, т.е. нужно строить новую инфраструктуру под этот блудняк (очень много бабок). Вот тебе инфа - как я и сказал электроэнергия это в худшем случае 10% от общей стоимости По поводу имеющихся мощностей - с имеющимися мощностями по производству чипов ВСЕ ЕЩЕ ХУДЕ РАЗ В 10-100 Показать содержимое As of early 2026, the best NVIDIA GPU for high-end, heavy-duty neural network training and inference is the NVIDIA H200 (Hopper architecture), with the next-generation B200 (Blackwell) also becoming available. A single NVIDIA H200 GPU typically costs between $30,000 and $40,000. [1, 2, 3] Operating an H200 24/7 for 5 years will incur significant electricity costs, often matching or exceeding the initial purchase price of the hardware due to high power consumption and continuous operation. [4] 1. Cost of the Best NVIDIA GPU (H200 - 2026) Unit Price: $30,000–$40,000 (single H200 NVL/SXM). System Price: An 8-GPU H200 server (often necessary for large-scale training) can exceed $300,000–$500,000. Alternatives: The H100 (80GB) is considered the "workhorse" standard and costs $27,000–$40,000 per unit. [3, 5] 2. Electricity Cost for 5 Years Non-Stop Operation Power Consumption: A single H200/H100 SXM GPU typically operates at up to 700W. Total Energy (5 Years): 700 Watts × 24 hours × 365 days × 5 years = 30,660 kWh per GPU. Electricity Rates: Assuming an average commercial data center rate of $0.15 per kWh, the cost is roughly: Per GPU (5 Years): $4,599 (approx. $4,600). Total Estimated Operating Cost: While the GPU itself draws 700W, the server, cooling, and infrastructure (PUE factor) often bring the total power consumption per GPU to 1kW or more. Therefore, the 5-year operating cost for electricity and cooling per card can easily exceed $6,500–$8,000+. [3, 6, 7, 8] Total 5-Year Cost Per GPU (Card + Energy): ~$36,000–$48,000. 3. Key Factors & Context Break-even: For continuous, 24/7 AI workloads, purchasing H100/H200 GPUs is generally more cost-effective than cloud renting after about 12–18 months of operation. Memory Shortages: 2026 prices are high due to a global VRAM shortage, affecting HBM3e supply. Blackwell (B200) Impact: While B200 is available, H200 remains a top contender due to its 141GB HBM3e memory, which is crucial for running large models without needing to cluster multiple GPUs. [3, 9, 10, 11] Disclaimer: Prices are based on February/March 2026 market estimates and can vary significantly based on supplier, volume, and location. [12] AI can make mistakes, so double-check responses [1] https://www.bestgpusforai.com/blog/best-gpus-for-ai [2] https://www.runpod.io/articles/guides/best-gpu-for-ai-training-2026 [3] https://docs.jarvislabs.ai/blog/h200-price [4] https://www.cnbc.com/2024/03/19/nvidias-blackwell-ai-chip-will-cost-more-than-30000-ceo-says.html [5] https://intuitionlabs.ai/articles/nvidia-ai-gpu-pricing-guide [6] https://www.cloudsyntrix.com/blogs/how-nvidia-blackwell-gpus-are-transforming-cloud-costs-and-revenue/ [7] https://news.ycombinator.com/item?id=45058036 [8] https://northflank.com/blog/best-gpu-for-ai [9] https://www.youtube.com/watch?v=A7wFsp48Be8 [10] https://www.youtube.com/watch?v=oNwQZgq5-Jo [11] https://intuitionlabs.ai/articles/nvidia-ai-gpu-pricing-guide [12] https://www.thundercompute.com/blog/nvidia-h100-pricing Стоимость ядерного реактора измеряется миллиардами Капитализация Нвидии - триллионы
  5. Чел идиот 1) Ну во первых да ИИ нужна энергия но не так уж и много и недостаток именно в чипах а не энергии блять. Энергия это копейки по сравнению с чипами))))))) 2) Электроэнергия не из нефти получается)))))))))))))))))))))) и даже не из газа обычно тк газ тратится на обогрев / химпром 3) США вообще-то экспортер)))))))))))))))))))))))))))))))))))))))))) и у Китая тоже угля до пизды как и ядерных станций и тд
  6. Vova

    Программирование[11]

    Извини то это противоречие в 2026 Могу проконсультировать не бесплатно конечно же Каждый час консультации = 1000$ Впрочем если ты такой тупой что не догадался спросить сначала свой вопрос у нейронки то дела очень плохи Деньги от консультации переведу в центр лечения детей с особенностями в развитии
  7. Vova

    Программирование[11]

    Чел не видящий цикл в цикле получает 300+ на удаленке а вы говорите рынок плохой Плюсую про удаленку На самом деле сложный и многополярный вопрос Если твоя команда сидит в офисе и общение с ними продуктивно плюс вайб есть и офис в 15-30 минутах от дома то это супер большой буст Если же твоя команда это половина удаленщиков плюс офис в пизде (привет ебучему США) то тут чисто фулл удаленка нужна и несколько раз в месяц можно приехать в офис Я сам хочу в офис ходить 5 дней в неделю и чтобы корпоративный доступ нахуй закрывался в нерабочее время и чтобы офис был в 15-30 мин от дома ну и чтобы можно было зачилить с коллегами и в целом норм общаться на / вне работы ну там смехуечки какие-то хобби итд Удаленка приводит к тому что вместо того чтобы работать с 9 до 5 ты работаешь блять с момента когда проснулся до момента когда лег спать плюс коллеги которые "привет не хочу тебя тревожить в нерабочее время кстате чтобы ты знал когда вернешься в работе - у нас тут ключевая инфа сломалась и блочит 100 человек" есть такое. можно ночью сидеть, можно утром сидеть, но ощущение что уже 24/7 работаешь. еще когда дома с семьей сидишь так ваще кайф, постепенно сходишь с ума Да это полная пизда Еще коллеги которые в вузе учились во время КОВИДа и у них социальные навыки вообще нахуй извращенные Самый смак это когда вы оба в офисе сидите и чел назначает тебе встречу через 4 часа потом уходит в кабинку для одного человека и подключается к встрече удаленно У меня нахуй мысли - чел ты че совсем долбаеб???? мы сидим в 5 метрах друг от друга ты не мог просто подойти и спросить и не ждать 4 часа???? Даже менеджеру особо не нажалуешься на такой долбаебизм потому что формально все ок Ебаные зумеры на удаленке это какой-то сраный кринж - особенно когда там задача на 15 минут а зумер ее делает целый день и ты хуй проссышь чел просто ебланит (тогда это еще ок) или он реально настолько ебанутый что в поте лица делает таску которая должна занять 15 минут блять Это просто пиздец когда челы которые боятся на улицу выйти и учились тоже удаленно пушат этот сраный социофобный формат работы
  8. Vova

    Программирование[11]

    Чел не видящий цикл в цикле получает 300+ на удаленке а вы говорите рынок плохой Плюсую про удаленку На самом деле сложный и многополярный вопрос Если твоя команда сидит в офисе и общение с ними продуктивно плюс вайб есть и офис в 15-30 минутах от дома то это супер большой буст Если же твоя команда это половина удаленщиков плюс офис в пизде (привет ебучему США) то тут чисто фулл удаленка нужна и несколько раз в месяц можно приехать в офис Я сам хочу в офис ходить 5 дней в неделю и чтобы корпоративный доступ нахуй закрывался в нерабочее время и чтобы офис был в 15-30 мин от дома ну и чтобы можно было зачилить с коллегами и в целом норм общаться на / вне работы ну там смехуечки какие-то хобби итд Удаленка приводит к тому что вместо того чтобы работать с 9 до 5 ты работаешь блять с момента когда проснулся до момента когда лег спать плюс коллеги которые "привет не хочу тебя тревожить в нерабочее время кстате чтобы ты знал когда вернешься в работе - у нас тут ключевая инфа сломалась и блочит 100 человек"
  9. Минусы? Желаю обоим сторонам успеха
  10. Видик не успокоится пока за планете Земля стоит еще хоть один НПЗ
  11. суки ебаные. хорошо что трамп их на чистую воду вывел Привет, долбоебина ты уяснил разницу между 30уо хохлами и тысячелетними персами? да. хохлы не ебут осла и не являются врагом Израиля. Хохлы буквально еврейские погромы повершали
  12. Доналду есть разница. Дети в Израиле? Челики говорят: "Смерть Америке и Израилю". Это их официальная доктрина. Я понимаю, что это намек на "москаляку на гиляку", но я не поддерживаю войну за слова. Слова ? Аятолла поставил цель стране - до 2041 года уничтожить талмудчиков. И эти намерения вышли далеко за пределы слов. Иран снабжал хезболлу и хамас далеко не словами, а тем что потом убивало евреев. При этом договориться с ними нельзя, а время тикает и разработка яо (ядерного оружия) идёт своим чередом. Войнушка прошлым летом скорее всего окончательно убедила евреев, что режим надо уничтожать, ибо купол не спас от ракет. А если бы хоть одна была с яо... Раз за куполом не отсидеться - евреи решили что надо действовать, пока не поздно и пока у режима проблемы внутри. Часы в Иране с обратным отсчётом дней до марта 2041 года, даты к которой израилль должен быть уничтожен Что то я пропустил по какой статье международного права нельзя атомное оружие делать и почему тогда страны которые его сделали еще не в международной тюрьме Да эту статью ещё не успели прописать, как и другую - что запрещает нападать на соседнюю страну и аннексировать его территории под видом освобождения. Похоже международное право это плевое дело и можно что по кайфу делать если придумал какой то смешной анекдот в свое оправдание, где можно устроиться международным адвокатом? "Спасибо" дяде вове, что открыл ящик пандорры. Или ты думал что путяра сможет годами творить что хочет, а другие такие - неее, мы то будем строго строго в рамках межднураодных законов и только кремлю можно ложить на них болт. Напоминаю что этот человек годами восхваливал Путина в теме Навального
  13. Я нашел лучшую аналогии политиков Эстонии Латвии и тд Это типо как Димон или раньше эту роль клоуна отыгрывал Жириновский при Путине Роль заключается чтобы озвучивать то что им поручают большие дяди которые по факту решают что-то
  14. Vova

    Программирование[11]

    https://www.threads.com/@theaadhyaverse/post/DVfl1aDjk9M/media Хаха я хакнул тупые запреты продоты))))
  15. Только против не очень технологичных. Бпла, летящим на малых высотах с учётом географии местности, парочка установок вообще ничего не сделают. А ставить их через каждые пару км даже у евреев денег не хватит. да, система только развертывается, вроде бы только в нескольких точках на ливанской границе, и она эффективна пока только против БПЛА. Но не нужно тратить ракету за лярд кстати против бпла еще есть решения типо пулёмета, прицепленного к инфракрасной камере + радару, который по траектрории лупит типо зениток (чтобы за облачками было видно), уверен что в случае с лазером такая же примерно технология используется Привет Снова описка и должно было быть лям?
×
×
  • Создать...