Перейти к публикации

KingOfSpain

User
  • Сообщений

    748
  • Зарегистрирован

  • Посещение

  • Время онлайн

    89д 8ч 57м 12с

Все публикации пользователя KingOfSpain

  1. более того, если экпипаж выжил, то это и в потери не стоит записывать всего лишь расходник, хоть и дорогой ватоадмин вроде всегда был душным, но этот перл что-то на уровне хуесоса жмиля
  2. наступила ночь, вся вырусь пробудилась
  3. зашел щас почитать на форчане че в мире творится -- там такой демедж контроль бототредами шо пиздец я раньше теорию мертвого интернета ставил на уровне с плоскоземельщиками, щас верю, что в мало-мальски крупных соцсетях живых людей дай бог 1% аишка дает такие обширные возможности по контролю нарратива шо пездец причем проходит любую капчу и тд поэтому интернет по паспорту неизбежен
  4. выблядки, вы своей рабской рефлексией по заблокированному интернету уже все информ пространство засрали только критикуете и ноете, а потом покорно жрете
  5. да это прям супер тупость. Если уж решили любой ценой спасать, то это только дипломатически делать. Закидывать еще людей = гробить технику и чужие жизни твое предложение хуевее в тыщу раз
  6. вроде месяц назад писали, что без этой помощи уже в апреле бабки закончаться теперь июнь
  7. мне кажется, в виде отдельного гаджета была бы имба, типа второй слот для последнего шанса а так только утяжеляет основное оружие, в которое можно патроны антидроновые зарядить или вообще дробаш взять, если на эвакуации
  8. https://www.mining.com/us-has-two-months-of-rare-earth-supplies-left-scmp-reports/ у пендосов минералов на два месяца, без них даже патриотов не поделать самый прикол, что у Китая не только половина мировой добычи, но и ВЕСЬ процессинг этой хуеты ггвп Трампони
  9. вы вот рофлите на Трампом, а что если некст мувом он забирает Гренландию? подержать пролив закрытым еще какое-то время и Европа вообще размякнет
  10. управляет нереальная макака канешн в конце не нашел ничего лучше, чем уебать в дверь
  11. а как без наземки США + Израиль помешают Ирану пролив простреливать? Всего 40км ширина уйти им тоже не вариант по разным причинам ядерку юзать офк не будут, так как на яо у мирового сообщества сильное табу
  12. KingOfSpain

    Весёлые смешинки

    f.mp4 /monthly_2026_03/f.mp4.78dd044eb67955f6187b5ab384d911c1.mp4
  13. так за антихристом же сразу ИИсус придет а как вообще Третий храм и Иисус связаны? амеров настолько прогрели, что они думают, будто у иудеев тот же бог, который и у христиан? так и есть. и у муслимов тоже это псиоп жидовский с целью добавить себе очков престижа из общего тока ветхий завет
  14. Вот тебе то что? Лично у тебя жизнь лучше не станет. Нам ничего нового не увидеть, деньги на ракеты у вас и так были, там не в количестве денег вопрос, а в возможности их производить. Максимум чем это угрожает, что в бюджете у вас будет больше денег на выплаты по контрактам, но те кто хотел уже и так пошел, так что могут принудительно вас теперь собирать. Хотя если тебя радует что Сечин и Ко, немного поправят свое финансовое положение, то конечно это победа. типа больше денег не позволит произвести больше ракет? хотя кого я спрашиваю, ты же сраный хохол
  15. так за антихристом же сразу ИИсус придет а как вообще Третий храм и Иисус связаны? амеров настолько прогрели, что они думают, будто у иудеев тот же бог, который и у христиан?
  16. KingOfSpain

    Программирование[11]

    чел, какой вайбкодинг, ты из 2025го тока вылупился? изучи SDD, посмотри как у людей засетаплено и кайфуй
  17. привет, вижу ты испытваешь временные проблемы с прочтением поста Дрейнбеда, я привел его ниже, можешь не благодарить! спасибо гой. теперь всегда так делай. приятно осозновать, что русня ради меня так старается а чего ты такой злой? вроде только обед кончился или сегодня без комбикорма?
  18. привет, вижу ты испытваешь временные проблемы с прочтением поста Дрейнбеда, я привел его ниже, можешь не благодарить!
  19. ну чего ты их обижаешь смотри, они даже монетку памятную выпустили
  20. так рядом с барином, под пледиком, да еще и в круживных трусиках, намного приятнее время проводить
  21. але, это пакистан? Чел идиот 1) Ну во первых да ИИ нужна энергия но не так уж и много и недостаток именно в чипах а не энергии блять. Энергия это копейки по сравнению с чипами))))))) 2) Электроэнергия не из нефти получается)))))))))))))))))))))) и даже не из газа обычно тк газ тратится на обогрев / химпром 3) США вообще-то экспортер)))))))))))))))))))))))))))))))))))))))))) и у Китая тоже угля до пизды как и ядерных станций и тд Хуясе не много. У одного Маска аппетиты на 2ГВт (два ядерных реактора). А ведь помимо него есть и другие игроки. Плюс наверняка почти все имеющиеся мощности заняты, т.е. нужно строить новую инфраструктуру под этот блудняк (очень много бабок). Вот тебе инфа - как я и сказал электроэнергия это в худшем случае 10% от общей стоимости По поводу имеющихся мощностей - с имеющимися мощностями по производству чипов ВСЕ ЕЩЕ ХУДЕ РАЗ В 10-100 As of early 2026, the best NVIDIA GPU for high-end, heavy-duty neural network training and inference is the NVIDIA H200 (Hopper architecture), with the next-generation B200 (Blackwell) also becoming available. A single NVIDIA H200 GPU typically costs between $30,000 and $40,000. [1, 2, 3] Operating an H200 24/7 for 5 years will incur significant electricity costs, often matching or exceeding the initial purchase price of the hardware due to high power consumption and continuous operation. [4] 1. Cost of the Best NVIDIA GPU (H200 - 2026) Unit Price: $30,000–$40,000 (single H200 NVL/SXM). System Price: An 8-GPU H200 server (often necessary for large-scale training) can exceed $300,000–$500,000. Alternatives: The H100 (80GB) is considered the "workhorse" standard and costs $27,000–$40,000 per unit. [3, 5] 2. Electricity Cost for 5 Years Non-Stop Operation Power Consumption: A single H200/H100 SXM GPU typically operates at up to 700W. Total Energy (5 Years): 700 Watts × 24 hours × 365 days × 5 years = 30,660 kWh per GPU. Electricity Rates: Assuming an average commercial data center rate of $0.15 per kWh, the cost is roughly: Per GPU (5 Years): $4,599 (approx. $4,600). Total Estimated Operating Cost: While the GPU itself draws 700W, the server, cooling, and infrastructure (PUE factor) often bring the total power consumption per GPU to 1kW or more. Therefore, the 5-year operating cost for electricity and cooling per card can easily exceed $6,500–$8,000+. [3, 6, 7, 8] Total 5-Year Cost Per GPU (Card + Energy): ~$36,000–$48,000. 3. Key Factors & Context Break-even: For continuous, 24/7 AI workloads, purchasing H100/H200 GPUs is generally more cost-effective than cloud renting after about 12–18 months of operation. Memory Shortages: 2026 prices are high due to a global VRAM shortage, affecting HBM3e supply. Blackwell (B200) Impact: While B200 is available, H200 remains a top contender due to its 141GB HBM3e memory, which is crucial for running large models without needing to cluster multiple GPUs. [3, 9, 10, 11] Disclaimer: Prices are based on February/March 2026 market estimates and can vary significantly based on supplier, volume, and location. [12] AI can make mistakes, so double-check responses [1] https://www.bestgpusforai.com/blog/best-gpus-for-ai [2] https://www.runpod.io/articles/guides/best-gpu-for-ai-training-2026 [3] https://docs.jarvislabs.ai/blog/h200-price [4] https://www.cnbc.com/2024/03/19/nvidias-blackwell-ai-chip-will-cost-more-than-30000-ceo-says.html [5] https://intuitionlabs.ai/articles/nvidia-ai-gpu-pricing-guide [6] https://www.cloudsyntrix.com/blogs/how-nvidia-blackwell-gpus-are-transforming-cloud-costs-and-revenue/ [7] https://news.ycombinator.com/item?id=45058036 [8] https://northflank.com/blog/best-gpu-for-ai [9] https://www.youtube.com/watch?v=A7wFsp48Be8 [10] https://www.youtube.com/watch?v=oNwQZgq5-Jo [11] https://intuitionlabs.ai/articles/nvidia-ai-gpu-pricing-guide [12] https://www.thundercompute.com/blog/nvidia-h100-pricing >Operating an H200 24/7 for 5 years will incur significant electricity costs, often matching or exceeding the initial purchase price of the hardware due to high power consumption and continuous operation. [4] не дабл-чекнул респонс?) matching or exceeding не похоже на 10% если все равно не веришь, то почему Оракл стока бабок залутал? эта компания не делает чипы или не выпускает модели Я дабл чекнул Ты БЛЯТЬ НЕ МОЖЕШЬ НАЙТИ РАСЧЕТ СТОИМОСТИ ИЛИ ЧТО???? 40'000 стоимость покупки 4'000 стоимость электроэнергии 24/7 на 5 лет хорошо, пусть будет 10%, энивей это не хуйня я уж не говорю о том, что без этой десятины остальные 90% работать не будут
  22. але, это пакистан? Чел идиот 1) Ну во первых да ИИ нужна энергия но не так уж и много и недостаток именно в чипах а не энергии блять. Энергия это копейки по сравнению с чипами))))))) 2) Электроэнергия не из нефти получается)))))))))))))))))))))) и даже не из газа обычно тк газ тратится на обогрев / химпром 3) США вообще-то экспортер)))))))))))))))))))))))))))))))))))))))))) и у Китая тоже угля до пизды как и ядерных станций и тд Хуясе не много. У одного Маска аппетиты на 2ГВт (два ядерных реактора). А ведь помимо него есть и другие игроки. Плюс наверняка почти все имеющиеся мощности заняты, т.е. нужно строить новую инфраструктуру под этот блудняк (очень много бабок). Вот тебе инфа - как я и сказал электроэнергия это в худшем случае 10% от общей стоимости По поводу имеющихся мощностей - с имеющимися мощностями по производству чипов ВСЕ ЕЩЕ ХУДЕ РАЗ В 10-100 As of early 2026, the best NVIDIA GPU for high-end, heavy-duty neural network training and inference is the NVIDIA H200 (Hopper architecture), with the next-generation B200 (Blackwell) also becoming available. A single NVIDIA H200 GPU typically costs between $30,000 and $40,000. [1, 2, 3] Operating an H200 24/7 for 5 years will incur significant electricity costs, often matching or exceeding the initial purchase price of the hardware due to high power consumption and continuous operation. [4] 1. Cost of the Best NVIDIA GPU (H200 - 2026) Unit Price: $30,000–$40,000 (single H200 NVL/SXM). System Price: An 8-GPU H200 server (often necessary for large-scale training) can exceed $300,000–$500,000. Alternatives: The H100 (80GB) is considered the "workhorse" standard and costs $27,000–$40,000 per unit. [3, 5] 2. Electricity Cost for 5 Years Non-Stop Operation Power Consumption: A single H200/H100 SXM GPU typically operates at up to 700W. Total Energy (5 Years): 700 Watts × 24 hours × 365 days × 5 years = 30,660 kWh per GPU. Electricity Rates: Assuming an average commercial data center rate of $0.15 per kWh, the cost is roughly: Per GPU (5 Years): $4,599 (approx. $4,600). Total Estimated Operating Cost: While the GPU itself draws 700W, the server, cooling, and infrastructure (PUE factor) often bring the total power consumption per GPU to 1kW or more. Therefore, the 5-year operating cost for electricity and cooling per card can easily exceed $6,500–$8,000+. [3, 6, 7, 8] Total 5-Year Cost Per GPU (Card + Energy): ~$36,000–$48,000. 3. Key Factors & Context Break-even: For continuous, 24/7 AI workloads, purchasing H100/H200 GPUs is generally more cost-effective than cloud renting after about 12–18 months of operation. Memory Shortages: 2026 prices are high due to a global VRAM shortage, affecting HBM3e supply. Blackwell (B200) Impact: While B200 is available, H200 remains a top contender due to its 141GB HBM3e memory, which is crucial for running large models without needing to cluster multiple GPUs. [3, 9, 10, 11] Disclaimer: Prices are based on February/March 2026 market estimates and can vary significantly based on supplier, volume, and location. [12] AI can make mistakes, so double-check responses [1] https://www.bestgpusforai.com/blog/best-gpus-for-ai [2] https://www.runpod.io/articles/guides/best-gpu-for-ai-training-2026 [3] https://docs.jarvislabs.ai/blog/h200-price [4] https://www.cnbc.com/2024/03/19/nvidias-blackwell-ai-chip-will-cost-more-than-30000-ceo-says.html [5] https://intuitionlabs.ai/articles/nvidia-ai-gpu-pricing-guide [6] https://www.cloudsyntrix.com/blogs/how-nvidia-blackwell-gpus-are-transforming-cloud-costs-and-revenue/ [7] https://news.ycombinator.com/item?id=45058036 [8] https://northflank.com/blog/best-gpu-for-ai [9] https://www.youtube.com/watch?v=A7wFsp48Be8 [10] https://www.youtube.com/watch?v=oNwQZgq5-Jo [11] https://intuitionlabs.ai/articles/nvidia-ai-gpu-pricing-guide [12] https://www.thundercompute.com/blog/nvidia-h100-pricing >Operating an H200 24/7 for 5 years will incur significant electricity costs, often matching or exceeding the initial purchase price of the hardware due to high power consumption and continuous operation. [4] не дабл-чекнул респонс?) matching or exceeding не похоже на 10% если все равно не веришь, то почему Оракл стока бабок залутал? эта компания не делает чипы или не выпускает модели
  23. але, это пакистан? Чел идиот 1) Ну во первых да ИИ нужна энергия но не так уж и много и недостаток именно в чипах а не энергии блять. Энергия это копейки по сравнению с чипами))))))) 2) Электроэнергия не из нефти получается)))))))))))))))))))))) и даже не из газа обычно тк газ тратится на обогрев / химпром 3) США вообще-то экспортер)))))))))))))))))))))))))))))))))))))))))) и у Китая тоже угля до пизды как и ядерных станций и тд Хуясе не много. У одного Маска аппетиты на 2ГВт (два ядерных реактора). А ведь помимо него есть и другие игроки. Плюс наверняка почти все имеющиеся мощности заняты, т.е. нужно строить новую инфраструктуру под этот блудняк (очень много бабок).
  24. KingOfSpain

    Советы и помощь по сериалам т.2

    Глянул две серии Портобелло (2025 или 2026) -- какой же кайф. 0 негров, 0 лгбт, 0 повестки, но не это главное. В сирике интересные диалоги и приятная картинка. Создатели хорошо постарались, чтобы воссоздать ту эпоху. Отдельно бы отметил игру актеров. В оригинале их итальянская речь выразительна и мелодична. Прям старый добрый HBO. Советую!
  25. думаешь они уже обладают технологией воскрешения? вроде ж нынешний ритуал как раз и должен даровать силы подобные силы
×
×
  • Создать...