-
Сообщений
764 -
Зарегистрирован
-
Посещение
-
Время онлайн
89д 17ч 46м 44с
Все публикации пользователя KingOfSpain
-
управляет нереальная макака канешн в конце не нашел ничего лучше, чем уебать в дверь
-
а как без наземки США + Израиль помешают Ирану пролив простреливать? Всего 40км ширина уйти им тоже не вариант по разным причинам ядерку юзать офк не будут, так как на яо у мирового сообщества сильное табу
-
f.mp4 /monthly_2026_03/f.mp4.78dd044eb67955f6187b5ab384d911c1.mp4
-
так за антихристом же сразу ИИсус придет а как вообще Третий храм и Иисус связаны? амеров настолько прогрели, что они думают, будто у иудеев тот же бог, который и у христиан? так и есть. и у муслимов тоже это псиоп жидовский с целью добавить себе очков престижа из общего тока ветхий завет
-
Четыре прошло, еще три осталось. Украина, с.2 т.82
KingOfSpain ответил в теме пользователя Kant в Таверна
Вот тебе то что? Лично у тебя жизнь лучше не станет. Нам ничего нового не увидеть, деньги на ракеты у вас и так были, там не в количестве денег вопрос, а в возможности их производить. Максимум чем это угрожает, что в бюджете у вас будет больше денег на выплаты по контрактам, но те кто хотел уже и так пошел, так что могут принудительно вас теперь собирать. Хотя если тебя радует что Сечин и Ко, немного поправят свое финансовое положение, то конечно это победа. типа больше денег не позволит произвести больше ракет? хотя кого я спрашиваю, ты же сраный хохол -
так за антихристом же сразу ИИсус придет а как вообще Третий храм и Иисус связаны? амеров настолько прогрели, что они думают, будто у иудеев тот же бог, который и у христиан?
-
чел, какой вайбкодинг, ты из 2025го тока вылупился? изучи SDD, посмотри как у людей засетаплено и кайфуй
-
Четыре прошло, еще три осталось. Украина, с.2 т.82
KingOfSpain ответил в теме пользователя Kant в Таверна
привет, вижу ты испытваешь временные проблемы с прочтением поста Дрейнбеда, я привел его ниже, можешь не благодарить! спасибо гой. теперь всегда так делай. приятно осозновать, что русня ради меня так старается а чего ты такой злой? вроде только обед кончился или сегодня без комбикорма? -
Четыре прошло, еще три осталось. Украина, с.2 т.82
KingOfSpain ответил в теме пользователя Kant в Таверна
привет, вижу ты испытваешь временные проблемы с прочтением поста Дрейнбеда, я привел его ниже, можешь не благодарить! -
ну чего ты их обижаешь смотри, они даже монетку памятную выпустили
-
Четыре прошло, еще три осталось. Украина, с.2 т.82
KingOfSpain ответил в теме пользователя Kant в Таверна
так рядом с барином, под пледиком, да еще и в круживных трусиках, намного приятнее время проводить -
але, это пакистан? Чел идиот 1) Ну во первых да ИИ нужна энергия но не так уж и много и недостаток именно в чипах а не энергии блять. Энергия это копейки по сравнению с чипами))))))) 2) Электроэнергия не из нефти получается)))))))))))))))))))))) и даже не из газа обычно тк газ тратится на обогрев / химпром 3) США вообще-то экспортер)))))))))))))))))))))))))))))))))))))))))) и у Китая тоже угля до пизды как и ядерных станций и тд Хуясе не много. У одного Маска аппетиты на 2ГВт (два ядерных реактора). А ведь помимо него есть и другие игроки. Плюс наверняка почти все имеющиеся мощности заняты, т.е. нужно строить новую инфраструктуру под этот блудняк (очень много бабок). Вот тебе инфа - как я и сказал электроэнергия это в худшем случае 10% от общей стоимости По поводу имеющихся мощностей - с имеющимися мощностями по производству чипов ВСЕ ЕЩЕ ХУДЕ РАЗ В 10-100 As of early 2026, the best NVIDIA GPU for high-end, heavy-duty neural network training and inference is the NVIDIA H200 (Hopper architecture), with the next-generation B200 (Blackwell) also becoming available. A single NVIDIA H200 GPU typically costs between $30,000 and $40,000. [1, 2, 3] Operating an H200 24/7 for 5 years will incur significant electricity costs, often matching or exceeding the initial purchase price of the hardware due to high power consumption and continuous operation. [4] 1. Cost of the Best NVIDIA GPU (H200 - 2026) Unit Price: $30,000–$40,000 (single H200 NVL/SXM). System Price: An 8-GPU H200 server (often necessary for large-scale training) can exceed $300,000–$500,000. Alternatives: The H100 (80GB) is considered the "workhorse" standard and costs $27,000–$40,000 per unit. [3, 5] 2. Electricity Cost for 5 Years Non-Stop Operation Power Consumption: A single H200/H100 SXM GPU typically operates at up to 700W. Total Energy (5 Years): 700 Watts × 24 hours × 365 days × 5 years = 30,660 kWh per GPU. Electricity Rates: Assuming an average commercial data center rate of $0.15 per kWh, the cost is roughly: Per GPU (5 Years): $4,599 (approx. $4,600). Total Estimated Operating Cost: While the GPU itself draws 700W, the server, cooling, and infrastructure (PUE factor) often bring the total power consumption per GPU to 1kW or more. Therefore, the 5-year operating cost for electricity and cooling per card can easily exceed $6,500–$8,000+. [3, 6, 7, 8] Total 5-Year Cost Per GPU (Card + Energy): ~$36,000–$48,000. 3. Key Factors & Context Break-even: For continuous, 24/7 AI workloads, purchasing H100/H200 GPUs is generally more cost-effective than cloud renting after about 12–18 months of operation. Memory Shortages: 2026 prices are high due to a global VRAM shortage, affecting HBM3e supply. Blackwell (B200) Impact: While B200 is available, H200 remains a top contender due to its 141GB HBM3e memory, which is crucial for running large models without needing to cluster multiple GPUs. [3, 9, 10, 11] Disclaimer: Prices are based on February/March 2026 market estimates and can vary significantly based on supplier, volume, and location. [12] AI can make mistakes, so double-check responses [1] https://www.bestgpusforai.com/blog/best-gpus-for-ai [2] https://www.runpod.io/articles/guides/best-gpu-for-ai-training-2026 [3] https://docs.jarvislabs.ai/blog/h200-price [4] https://www.cnbc.com/2024/03/19/nvidias-blackwell-ai-chip-will-cost-more-than-30000-ceo-says.html [5] https://intuitionlabs.ai/articles/nvidia-ai-gpu-pricing-guide [6] https://www.cloudsyntrix.com/blogs/how-nvidia-blackwell-gpus-are-transforming-cloud-costs-and-revenue/ [7] https://news.ycombinator.com/item?id=45058036 [8] https://northflank.com/blog/best-gpu-for-ai [9] https://www.youtube.com/watch?v=A7wFsp48Be8 [10] https://www.youtube.com/watch?v=oNwQZgq5-Jo [11] https://intuitionlabs.ai/articles/nvidia-ai-gpu-pricing-guide [12] https://www.thundercompute.com/blog/nvidia-h100-pricing >Operating an H200 24/7 for 5 years will incur significant electricity costs, often matching or exceeding the initial purchase price of the hardware due to high power consumption and continuous operation. [4] не дабл-чекнул респонс?) matching or exceeding не похоже на 10% если все равно не веришь, то почему Оракл стока бабок залутал? эта компания не делает чипы или не выпускает модели Я дабл чекнул Ты БЛЯТЬ НЕ МОЖЕШЬ НАЙТИ РАСЧЕТ СТОИМОСТИ ИЛИ ЧТО???? 40'000 стоимость покупки 4'000 стоимость электроэнергии 24/7 на 5 лет хорошо, пусть будет 10%, энивей это не хуйня я уж не говорю о том, что без этой десятины остальные 90% работать не будут
-
але, это пакистан? Чел идиот 1) Ну во первых да ИИ нужна энергия но не так уж и много и недостаток именно в чипах а не энергии блять. Энергия это копейки по сравнению с чипами))))))) 2) Электроэнергия не из нефти получается)))))))))))))))))))))) и даже не из газа обычно тк газ тратится на обогрев / химпром 3) США вообще-то экспортер)))))))))))))))))))))))))))))))))))))))))) и у Китая тоже угля до пизды как и ядерных станций и тд Хуясе не много. У одного Маска аппетиты на 2ГВт (два ядерных реактора). А ведь помимо него есть и другие игроки. Плюс наверняка почти все имеющиеся мощности заняты, т.е. нужно строить новую инфраструктуру под этот блудняк (очень много бабок). Вот тебе инфа - как я и сказал электроэнергия это в худшем случае 10% от общей стоимости По поводу имеющихся мощностей - с имеющимися мощностями по производству чипов ВСЕ ЕЩЕ ХУДЕ РАЗ В 10-100 As of early 2026, the best NVIDIA GPU for high-end, heavy-duty neural network training and inference is the NVIDIA H200 (Hopper architecture), with the next-generation B200 (Blackwell) also becoming available. A single NVIDIA H200 GPU typically costs between $30,000 and $40,000. [1, 2, 3] Operating an H200 24/7 for 5 years will incur significant electricity costs, often matching or exceeding the initial purchase price of the hardware due to high power consumption and continuous operation. [4] 1. Cost of the Best NVIDIA GPU (H200 - 2026) Unit Price: $30,000–$40,000 (single H200 NVL/SXM). System Price: An 8-GPU H200 server (often necessary for large-scale training) can exceed $300,000–$500,000. Alternatives: The H100 (80GB) is considered the "workhorse" standard and costs $27,000–$40,000 per unit. [3, 5] 2. Electricity Cost for 5 Years Non-Stop Operation Power Consumption: A single H200/H100 SXM GPU typically operates at up to 700W. Total Energy (5 Years): 700 Watts × 24 hours × 365 days × 5 years = 30,660 kWh per GPU. Electricity Rates: Assuming an average commercial data center rate of $0.15 per kWh, the cost is roughly: Per GPU (5 Years): $4,599 (approx. $4,600). Total Estimated Operating Cost: While the GPU itself draws 700W, the server, cooling, and infrastructure (PUE factor) often bring the total power consumption per GPU to 1kW or more. Therefore, the 5-year operating cost for electricity and cooling per card can easily exceed $6,500–$8,000+. [3, 6, 7, 8] Total 5-Year Cost Per GPU (Card + Energy): ~$36,000–$48,000. 3. Key Factors & Context Break-even: For continuous, 24/7 AI workloads, purchasing H100/H200 GPUs is generally more cost-effective than cloud renting after about 12–18 months of operation. Memory Shortages: 2026 prices are high due to a global VRAM shortage, affecting HBM3e supply. Blackwell (B200) Impact: While B200 is available, H200 remains a top contender due to its 141GB HBM3e memory, which is crucial for running large models without needing to cluster multiple GPUs. [3, 9, 10, 11] Disclaimer: Prices are based on February/March 2026 market estimates and can vary significantly based on supplier, volume, and location. [12] AI can make mistakes, so double-check responses [1] https://www.bestgpusforai.com/blog/best-gpus-for-ai [2] https://www.runpod.io/articles/guides/best-gpu-for-ai-training-2026 [3] https://docs.jarvislabs.ai/blog/h200-price [4] https://www.cnbc.com/2024/03/19/nvidias-blackwell-ai-chip-will-cost-more-than-30000-ceo-says.html [5] https://intuitionlabs.ai/articles/nvidia-ai-gpu-pricing-guide [6] https://www.cloudsyntrix.com/blogs/how-nvidia-blackwell-gpus-are-transforming-cloud-costs-and-revenue/ [7] https://news.ycombinator.com/item?id=45058036 [8] https://northflank.com/blog/best-gpu-for-ai [9] https://www.youtube.com/watch?v=A7wFsp48Be8 [10] https://www.youtube.com/watch?v=oNwQZgq5-Jo [11] https://intuitionlabs.ai/articles/nvidia-ai-gpu-pricing-guide [12] https://www.thundercompute.com/blog/nvidia-h100-pricing >Operating an H200 24/7 for 5 years will incur significant electricity costs, often matching or exceeding the initial purchase price of the hardware due to high power consumption and continuous operation. [4] не дабл-чекнул респонс?) matching or exceeding не похоже на 10% если все равно не веришь, то почему Оракл стока бабок залутал? эта компания не делает чипы или не выпускает модели
-
але, это пакистан? Чел идиот 1) Ну во первых да ИИ нужна энергия но не так уж и много и недостаток именно в чипах а не энергии блять. Энергия это копейки по сравнению с чипами))))))) 2) Электроэнергия не из нефти получается)))))))))))))))))))))) и даже не из газа обычно тк газ тратится на обогрев / химпром 3) США вообще-то экспортер)))))))))))))))))))))))))))))))))))))))))) и у Китая тоже угля до пизды как и ядерных станций и тд Хуясе не много. У одного Маска аппетиты на 2ГВт (два ядерных реактора). А ведь помимо него есть и другие игроки. Плюс наверняка почти все имеющиеся мощности заняты, т.е. нужно строить новую инфраструктуру под этот блудняк (очень много бабок).
-
Глянул две серии Портобелло (2025 или 2026) -- какой же кайф. 0 негров, 0 лгбт, 0 повестки, но не это главное. В сирике интересные диалоги и приятная картинка. Создатели хорошо постарались, чтобы воссоздать ту эпоху. Отдельно бы отметил игру актеров. В оригинале их итальянская речь выразительна и мелодична. Прям старый добрый HBO. Советую!
-
думаешь они уже обладают технологией воскрешения? вроде ж нынешний ритуал как раз и должен даровать силы подобные силы
-
Почему евреи еще не уебали по Аль-Аксе с территории Ирана? Место под Третий храм само себя не освободит
-
Всегда так было вообще-то. Или ты не заметил, что куда бы они не лезли, везде становится хуже? Будто бы раньше они за профит демократили
-
А что если стратка США -- насрать всему миру так, чтобы их внутренний пиздец не выглядел таким уж и пиздецом на общем фоне?
-
привет. а зачем израиль создал хамас который хочет убить евреев? Талмудчики - дурачки наивные, что решили поиграть в демократию с теми для кого это пустое слово. Придти к злобным, религиозным фанатикам, склонным к насилию и считать что получив демократию, у них возникнет гуманность, прогрессивность, озабоченность равноправием и тд - отличный план, конечно, и что могло пойти не так. наивные евреи
-
дада, особенно по своим союзникам типа никогда такого не делали?
-
вроде хуярятся мировой гегемон и 90-миллионная страна (не из Африки), а контента кот наплакал куда все эти миллиарды тратятся бля
-
мы знали, что израиль нападет на иран, а если израиль нападет на иран, то иран точно атакует на нас, поэтому мы начали бомбить иран первыми
-
-
Как раз таки современная прошивка, при всех мемах про зумеров и психотравмы >>>>>>> совковкую пидоранию, поэтому щас и возраст рождения первого ребенка вырос, и меньше хуеты во всех областях как раз от молодого поколения (от армии до работы), вся эта срань идет от долбоебов, у которых в голове домострой, дал бог зайку - даст и лужайку и надо потерпеть че бухтим-то а кто тебе сказал, что высокий возраст первого рождения это хорошо? у тебя с годами накапливаются мутации, т.е. буквально сперма тухнет. кстати, у баб похожая ситуация. и это лишь один из сильных доводов за рождение пораньше и хз почему ты противопоставляешь современную и совковую прошивки, ведь одна является следствием другой. в обоих случаях, женщина эмансипирована и должна в первую очередь работать, а не рожать и ухаживать за ребенком. сейчас просто отношение к вопросу продолжения рода поменялось, а точнее стало нахуй+похуй. однако, разве это нормально? будет меньше людей -- будет меньше гениев, технологий и других кайфов цивилизации
