-
Сообщений
715 -
Зарегистрирован
-
Посещение
-
Время онлайн
87д 19ч 45м 46с
О KingOfSpain
-
Звание
Unstoppable
Profile Information
-
Gender
Not Telling
Посетители профиля
7 216 просмотров профиля
-
KingOfSpain понравился пост в теме: Пыточная Федерация т.23. Далеко не все в тюрьме.
-
KingOfSpain понравился пост в теме: Мировая политота, т.4. Депортация гендеров
-
вы вот рофлите на Трампом, а что если некст мувом он забирает Гренландию? подержать пролив закрытым еще какое-то время и Европа вообще размякнет
-
KingOfSpain понравился пост в теме: Четыре прошло, еще три осталось. Украина, с.2 т.82
-
wuwku понравился пост в теме: Весёлые смешинки
-
KingOfSpain понравился пост в теме: Мировая политота, т.4. Депортация гендеров
-
123И47 понравился пост в теме: Весёлые смешинки
-
t4aRt понравился пост в теме: Весёлые смешинки
-
CliffEdge понравился пост в теме: Весёлые смешинки
-
Glamdring понравился пост в теме: Весёлые смешинки
-
управляет нереальная макака канешн в конце не нашел ничего лучше, чем уебать в дверь
-
Arzanis понравился пост в теме: Весёлые смешинки
-
DGAPwarrior понравился пост в теме: Весёлые смешинки
-
mydear_friend понравился пост в теме: Весёлые смешинки
-
Slowpoke4ever понравился пост в теме: Весёлые смешинки
-
vidurr понравился пост в теме: Весёлые смешинки
-
а как без наземки США + Израиль помешают Ирану пролив простреливать? Всего 40км ширина уйти им тоже не вариант по разным причинам ядерку юзать офк не будут, так как на яо у мирового сообщества сильное табу
-
f.mp4 /monthly_2026_03/f.mp4.78dd044eb67955f6187b5ab384d911c1.mp4
-
KingOfSpain понравился пост в теме: Программирование[11]
-
KingOfSpain понравился пост в теме: Мировая политота, т.4. Депортация гендеров
-
KingOfSpain понравился пост в теме: Мировая политота, т.4. Депортация гендеров
-
KingOfSpain понравился пост в теме: Четыре прошло, еще три осталось. Украина, с.2 т.82
-
KingOfSpain понравился пост в теме: Четыре прошло, еще три осталось. Украина, с.2 т.82
-
KingOfSpain понравился пост в теме: Мировая политота, т.4. Депортация гендеров
-
так за антихристом же сразу ИИсус придет а как вообще Третий храм и Иисус связаны? амеров настолько прогрели, что они думают, будто у иудеев тот же бог, который и у христиан? так и есть. и у муслимов тоже это псиоп жидовский с целью добавить себе очков престижа из общего тока ветхий завет
-
Четыре прошло, еще три осталось. Украина, с.2 т.82
KingOfSpain ответил в теме пользователя Kant в Таверна
Вот тебе то что? Лично у тебя жизнь лучше не станет. Нам ничего нового не увидеть, деньги на ракеты у вас и так были, там не в количестве денег вопрос, а в возможности их производить. Максимум чем это угрожает, что в бюджете у вас будет больше денег на выплаты по контрактам, но те кто хотел уже и так пошел, так что могут принудительно вас теперь собирать. Хотя если тебя радует что Сечин и Ко, немного поправят свое финансовое положение, то конечно это победа. типа больше денег не позволит произвести больше ракет? хотя кого я спрашиваю, ты же сраный хохол -
так за антихристом же сразу ИИсус придет а как вообще Третий храм и Иисус связаны? амеров настолько прогрели, что они думают, будто у иудеев тот же бог, который и у христиан?
-
чел, какой вайбкодинг, ты из 2025го тока вылупился? изучи SDD, посмотри как у людей засетаплено и кайфуй
-
Четыре прошло, еще три осталось. Украина, с.2 т.82
KingOfSpain ответил в теме пользователя Kant в Таверна
привет, вижу ты испытваешь временные проблемы с прочтением поста Дрейнбеда, я привел его ниже, можешь не благодарить! спасибо гой. теперь всегда так делай. приятно осозновать, что русня ради меня так старается а чего ты такой злой? вроде только обед кончился или сегодня без комбикорма? -
Четыре прошло, еще три осталось. Украина, с.2 т.82
KingOfSpain ответил в теме пользователя Kant в Таверна
привет, вижу ты испытваешь временные проблемы с прочтением поста Дрейнбеда, я привел его ниже, можешь не благодарить! -
ну чего ты их обижаешь смотри, они даже монетку памятную выпустили
-
Четыре прошло, еще три осталось. Украина, с.2 т.82
KingOfSpain ответил в теме пользователя Kant в Таверна
так рядом с барином, под пледиком, да еще и в круживных трусиках, намного приятнее время проводить -
але, это пакистан? Чел идиот 1) Ну во первых да ИИ нужна энергия но не так уж и много и недостаток именно в чипах а не энергии блять. Энергия это копейки по сравнению с чипами))))))) 2) Электроэнергия не из нефти получается)))))))))))))))))))))) и даже не из газа обычно тк газ тратится на обогрев / химпром 3) США вообще-то экспортер)))))))))))))))))))))))))))))))))))))))))) и у Китая тоже угля до пизды как и ядерных станций и тд Хуясе не много. У одного Маска аппетиты на 2ГВт (два ядерных реактора). А ведь помимо него есть и другие игроки. Плюс наверняка почти все имеющиеся мощности заняты, т.е. нужно строить новую инфраструктуру под этот блудняк (очень много бабок). Вот тебе инфа - как я и сказал электроэнергия это в худшем случае 10% от общей стоимости По поводу имеющихся мощностей - с имеющимися мощностями по производству чипов ВСЕ ЕЩЕ ХУДЕ РАЗ В 10-100 As of early 2026, the best NVIDIA GPU for high-end, heavy-duty neural network training and inference is the NVIDIA H200 (Hopper architecture), with the next-generation B200 (Blackwell) also becoming available. A single NVIDIA H200 GPU typically costs between $30,000 and $40,000. [1, 2, 3] Operating an H200 24/7 for 5 years will incur significant electricity costs, often matching or exceeding the initial purchase price of the hardware due to high power consumption and continuous operation. [4] 1. Cost of the Best NVIDIA GPU (H200 - 2026) Unit Price: $30,000–$40,000 (single H200 NVL/SXM). System Price: An 8-GPU H200 server (often necessary for large-scale training) can exceed $300,000–$500,000. Alternatives: The H100 (80GB) is considered the "workhorse" standard and costs $27,000–$40,000 per unit. [3, 5] 2. Electricity Cost for 5 Years Non-Stop Operation Power Consumption: A single H200/H100 SXM GPU typically operates at up to 700W. Total Energy (5 Years): 700 Watts × 24 hours × 365 days × 5 years = 30,660 kWh per GPU. Electricity Rates: Assuming an average commercial data center rate of $0.15 per kWh, the cost is roughly: Per GPU (5 Years): $4,599 (approx. $4,600). Total Estimated Operating Cost: While the GPU itself draws 700W, the server, cooling, and infrastructure (PUE factor) often bring the total power consumption per GPU to 1kW or more. Therefore, the 5-year operating cost for electricity and cooling per card can easily exceed $6,500–$8,000+. [3, 6, 7, 8] Total 5-Year Cost Per GPU (Card + Energy): ~$36,000–$48,000. 3. Key Factors & Context Break-even: For continuous, 24/7 AI workloads, purchasing H100/H200 GPUs is generally more cost-effective than cloud renting after about 12–18 months of operation. Memory Shortages: 2026 prices are high due to a global VRAM shortage, affecting HBM3e supply. Blackwell (B200) Impact: While B200 is available, H200 remains a top contender due to its 141GB HBM3e memory, which is crucial for running large models without needing to cluster multiple GPUs. [3, 9, 10, 11] Disclaimer: Prices are based on February/March 2026 market estimates and can vary significantly based on supplier, volume, and location. [12] AI can make mistakes, so double-check responses [1] https://www.bestgpusforai.com/blog/best-gpus-for-ai [2] https://www.runpod.io/articles/guides/best-gpu-for-ai-training-2026 [3] https://docs.jarvislabs.ai/blog/h200-price [4] https://www.cnbc.com/2024/03/19/nvidias-blackwell-ai-chip-will-cost-more-than-30000-ceo-says.html [5] https://intuitionlabs.ai/articles/nvidia-ai-gpu-pricing-guide [6] https://www.cloudsyntrix.com/blogs/how-nvidia-blackwell-gpus-are-transforming-cloud-costs-and-revenue/ [7] https://news.ycombinator.com/item?id=45058036 [8] https://northflank.com/blog/best-gpu-for-ai [9] https://www.youtube.com/watch?v=A7wFsp48Be8 [10] https://www.youtube.com/watch?v=oNwQZgq5-Jo [11] https://intuitionlabs.ai/articles/nvidia-ai-gpu-pricing-guide [12] https://www.thundercompute.com/blog/nvidia-h100-pricing >Operating an H200 24/7 for 5 years will incur significant electricity costs, often matching or exceeding the initial purchase price of the hardware due to high power consumption and continuous operation. [4] не дабл-чекнул респонс?) matching or exceeding не похоже на 10% если все равно не веришь, то почему Оракл стока бабок залутал? эта компания не делает чипы или не выпускает модели Я дабл чекнул Ты БЛЯТЬ НЕ МОЖЕШЬ НАЙТИ РАСЧЕТ СТОИМОСТИ ИЛИ ЧТО???? 40'000 стоимость покупки 4'000 стоимость электроэнергии 24/7 на 5 лет хорошо, пусть будет 10%, энивей это не хуйня я уж не говорю о том, что без этой десятины остальные 90% работать не будут
-
але, это пакистан? Чел идиот 1) Ну во первых да ИИ нужна энергия но не так уж и много и недостаток именно в чипах а не энергии блять. Энергия это копейки по сравнению с чипами))))))) 2) Электроэнергия не из нефти получается)))))))))))))))))))))) и даже не из газа обычно тк газ тратится на обогрев / химпром 3) США вообще-то экспортер)))))))))))))))))))))))))))))))))))))))))) и у Китая тоже угля до пизды как и ядерных станций и тд Хуясе не много. У одного Маска аппетиты на 2ГВт (два ядерных реактора). А ведь помимо него есть и другие игроки. Плюс наверняка почти все имеющиеся мощности заняты, т.е. нужно строить новую инфраструктуру под этот блудняк (очень много бабок). Вот тебе инфа - как я и сказал электроэнергия это в худшем случае 10% от общей стоимости По поводу имеющихся мощностей - с имеющимися мощностями по производству чипов ВСЕ ЕЩЕ ХУДЕ РАЗ В 10-100 As of early 2026, the best NVIDIA GPU for high-end, heavy-duty neural network training and inference is the NVIDIA H200 (Hopper architecture), with the next-generation B200 (Blackwell) also becoming available. A single NVIDIA H200 GPU typically costs between $30,000 and $40,000. [1, 2, 3] Operating an H200 24/7 for 5 years will incur significant electricity costs, often matching or exceeding the initial purchase price of the hardware due to high power consumption and continuous operation. [4] 1. Cost of the Best NVIDIA GPU (H200 - 2026) Unit Price: $30,000–$40,000 (single H200 NVL/SXM). System Price: An 8-GPU H200 server (often necessary for large-scale training) can exceed $300,000–$500,000. Alternatives: The H100 (80GB) is considered the "workhorse" standard and costs $27,000–$40,000 per unit. [3, 5] 2. Electricity Cost for 5 Years Non-Stop Operation Power Consumption: A single H200/H100 SXM GPU typically operates at up to 700W. Total Energy (5 Years): 700 Watts × 24 hours × 365 days × 5 years = 30,660 kWh per GPU. Electricity Rates: Assuming an average commercial data center rate of $0.15 per kWh, the cost is roughly: Per GPU (5 Years): $4,599 (approx. $4,600). Total Estimated Operating Cost: While the GPU itself draws 700W, the server, cooling, and infrastructure (PUE factor) often bring the total power consumption per GPU to 1kW or more. Therefore, the 5-year operating cost for electricity and cooling per card can easily exceed $6,500–$8,000+. [3, 6, 7, 8] Total 5-Year Cost Per GPU (Card + Energy): ~$36,000–$48,000. 3. Key Factors & Context Break-even: For continuous, 24/7 AI workloads, purchasing H100/H200 GPUs is generally more cost-effective than cloud renting after about 12–18 months of operation. Memory Shortages: 2026 prices are high due to a global VRAM shortage, affecting HBM3e supply. Blackwell (B200) Impact: While B200 is available, H200 remains a top contender due to its 141GB HBM3e memory, which is crucial for running large models without needing to cluster multiple GPUs. [3, 9, 10, 11] Disclaimer: Prices are based on February/March 2026 market estimates and can vary significantly based on supplier, volume, and location. [12] AI can make mistakes, so double-check responses [1] https://www.bestgpusforai.com/blog/best-gpus-for-ai [2] https://www.runpod.io/articles/guides/best-gpu-for-ai-training-2026 [3] https://docs.jarvislabs.ai/blog/h200-price [4] https://www.cnbc.com/2024/03/19/nvidias-blackwell-ai-chip-will-cost-more-than-30000-ceo-says.html [5] https://intuitionlabs.ai/articles/nvidia-ai-gpu-pricing-guide [6] https://www.cloudsyntrix.com/blogs/how-nvidia-blackwell-gpus-are-transforming-cloud-costs-and-revenue/ [7] https://news.ycombinator.com/item?id=45058036 [8] https://northflank.com/blog/best-gpu-for-ai [9] https://www.youtube.com/watch?v=A7wFsp48Be8 [10] https://www.youtube.com/watch?v=oNwQZgq5-Jo [11] https://intuitionlabs.ai/articles/nvidia-ai-gpu-pricing-guide [12] https://www.thundercompute.com/blog/nvidia-h100-pricing >Operating an H200 24/7 for 5 years will incur significant electricity costs, often matching or exceeding the initial purchase price of the hardware due to high power consumption and continuous operation. [4] не дабл-чекнул респонс?) matching or exceeding не похоже на 10% если все равно не веришь, то почему Оракл стока бабок залутал? эта компания не делает чипы или не выпускает модели
-
але, это пакистан? Чел идиот 1) Ну во первых да ИИ нужна энергия но не так уж и много и недостаток именно в чипах а не энергии блять. Энергия это копейки по сравнению с чипами))))))) 2) Электроэнергия не из нефти получается)))))))))))))))))))))) и даже не из газа обычно тк газ тратится на обогрев / химпром 3) США вообще-то экспортер)))))))))))))))))))))))))))))))))))))))))) и у Китая тоже угля до пизды как и ядерных станций и тд Хуясе не много. У одного Маска аппетиты на 2ГВт (два ядерных реактора). А ведь помимо него есть и другие игроки. Плюс наверняка почти все имеющиеся мощности заняты, т.е. нужно строить новую инфраструктуру под этот блудняк (очень много бабок).
