-
Сообщений
748 -
Зарегистрирован
-
Посещение
-
Время онлайн
89д 8ч 57м 12с
Все публикации пользователя KingOfSpain
-
более того, если экпипаж выжил, то это и в потери не стоит записывать всего лишь расходник, хоть и дорогой ватоадмин вроде всегда был душным, но этот перл что-то на уровне хуесоса жмиля
-
Четыре прошло, еще три осталось. Украина, с.2 т.82
KingOfSpain ответил в теме пользователя Kant в Таверна
наступила ночь, вся вырусь пробудилась -
зашел щас почитать на форчане че в мире творится -- там такой демедж контроль бототредами шо пиздец я раньше теорию мертвого интернета ставил на уровне с плоскоземельщиками, щас верю, что в мало-мальски крупных соцсетях живых людей дай бог 1% аишка дает такие обширные возможности по контролю нарратива шо пездец причем проходит любую капчу и тд поэтому интернет по паспорту неизбежен
-
Пыточная Федерация т.23. Далеко не все в тюрьме.
KingOfSpain ответил в теме пользователя Дэфрэл в Таверна
выблядки, вы своей рабской рефлексией по заблокированному интернету уже все информ пространство засрали только критикуете и ноете, а потом покорно жрете -
да это прям супер тупость. Если уж решили любой ценой спасать, то это только дипломатически делать. Закидывать еще людей = гробить технику и чужие жизни твое предложение хуевее в тыщу раз
-
Четыре прошло, еще три осталось. Украина, с.2 т.82
KingOfSpain ответил в теме пользователя Kant в Таверна
вроде месяц назад писали, что без этой помощи уже в апреле бабки закончаться теперь июнь -
Четыре прошло, еще три осталось. Украина, с.2 т.82
KingOfSpain ответил в теме пользователя Kant в Таверна
мне кажется, в виде отдельного гаджета была бы имба, типа второй слот для последнего шанса а так только утяжеляет основное оружие, в которое можно патроны антидроновые зарядить или вообще дробаш взять, если на эвакуации -
https://www.mining.com/us-has-two-months-of-rare-earth-supplies-left-scmp-reports/ у пендосов минералов на два месяца, без них даже патриотов не поделать самый прикол, что у Китая не только половина мировой добычи, но и ВЕСЬ процессинг этой хуеты ггвп Трампони
-
вы вот рофлите на Трампом, а что если некст мувом он забирает Гренландию? подержать пролив закрытым еще какое-то время и Европа вообще размякнет
-
управляет нереальная макака канешн в конце не нашел ничего лучше, чем уебать в дверь
-
а как без наземки США + Израиль помешают Ирану пролив простреливать? Всего 40км ширина уйти им тоже не вариант по разным причинам ядерку юзать офк не будут, так как на яо у мирового сообщества сильное табу
-
f.mp4 /monthly_2026_03/f.mp4.78dd044eb67955f6187b5ab384d911c1.mp4
-
так за антихристом же сразу ИИсус придет а как вообще Третий храм и Иисус связаны? амеров настолько прогрели, что они думают, будто у иудеев тот же бог, который и у христиан? так и есть. и у муслимов тоже это псиоп жидовский с целью добавить себе очков престижа из общего тока ветхий завет
-
Четыре прошло, еще три осталось. Украина, с.2 т.82
KingOfSpain ответил в теме пользователя Kant в Таверна
Вот тебе то что? Лично у тебя жизнь лучше не станет. Нам ничего нового не увидеть, деньги на ракеты у вас и так были, там не в количестве денег вопрос, а в возможности их производить. Максимум чем это угрожает, что в бюджете у вас будет больше денег на выплаты по контрактам, но те кто хотел уже и так пошел, так что могут принудительно вас теперь собирать. Хотя если тебя радует что Сечин и Ко, немного поправят свое финансовое положение, то конечно это победа. типа больше денег не позволит произвести больше ракет? хотя кого я спрашиваю, ты же сраный хохол -
так за антихристом же сразу ИИсус придет а как вообще Третий храм и Иисус связаны? амеров настолько прогрели, что они думают, будто у иудеев тот же бог, который и у христиан?
-
чел, какой вайбкодинг, ты из 2025го тока вылупился? изучи SDD, посмотри как у людей засетаплено и кайфуй
-
Четыре прошло, еще три осталось. Украина, с.2 т.82
KingOfSpain ответил в теме пользователя Kant в Таверна
привет, вижу ты испытваешь временные проблемы с прочтением поста Дрейнбеда, я привел его ниже, можешь не благодарить! спасибо гой. теперь всегда так делай. приятно осозновать, что русня ради меня так старается а чего ты такой злой? вроде только обед кончился или сегодня без комбикорма? -
Четыре прошло, еще три осталось. Украина, с.2 т.82
KingOfSpain ответил в теме пользователя Kant в Таверна
привет, вижу ты испытваешь временные проблемы с прочтением поста Дрейнбеда, я привел его ниже, можешь не благодарить! -
ну чего ты их обижаешь смотри, они даже монетку памятную выпустили
-
Четыре прошло, еще три осталось. Украина, с.2 т.82
KingOfSpain ответил в теме пользователя Kant в Таверна
так рядом с барином, под пледиком, да еще и в круживных трусиках, намного приятнее время проводить -
але, это пакистан? Чел идиот 1) Ну во первых да ИИ нужна энергия но не так уж и много и недостаток именно в чипах а не энергии блять. Энергия это копейки по сравнению с чипами))))))) 2) Электроэнергия не из нефти получается)))))))))))))))))))))) и даже не из газа обычно тк газ тратится на обогрев / химпром 3) США вообще-то экспортер)))))))))))))))))))))))))))))))))))))))))) и у Китая тоже угля до пизды как и ядерных станций и тд Хуясе не много. У одного Маска аппетиты на 2ГВт (два ядерных реактора). А ведь помимо него есть и другие игроки. Плюс наверняка почти все имеющиеся мощности заняты, т.е. нужно строить новую инфраструктуру под этот блудняк (очень много бабок). Вот тебе инфа - как я и сказал электроэнергия это в худшем случае 10% от общей стоимости По поводу имеющихся мощностей - с имеющимися мощностями по производству чипов ВСЕ ЕЩЕ ХУДЕ РАЗ В 10-100 As of early 2026, the best NVIDIA GPU for high-end, heavy-duty neural network training and inference is the NVIDIA H200 (Hopper architecture), with the next-generation B200 (Blackwell) also becoming available. A single NVIDIA H200 GPU typically costs between $30,000 and $40,000. [1, 2, 3] Operating an H200 24/7 for 5 years will incur significant electricity costs, often matching or exceeding the initial purchase price of the hardware due to high power consumption and continuous operation. [4] 1. Cost of the Best NVIDIA GPU (H200 - 2026) Unit Price: $30,000–$40,000 (single H200 NVL/SXM). System Price: An 8-GPU H200 server (often necessary for large-scale training) can exceed $300,000–$500,000. Alternatives: The H100 (80GB) is considered the "workhorse" standard and costs $27,000–$40,000 per unit. [3, 5] 2. Electricity Cost for 5 Years Non-Stop Operation Power Consumption: A single H200/H100 SXM GPU typically operates at up to 700W. Total Energy (5 Years): 700 Watts × 24 hours × 365 days × 5 years = 30,660 kWh per GPU. Electricity Rates: Assuming an average commercial data center rate of $0.15 per kWh, the cost is roughly: Per GPU (5 Years): $4,599 (approx. $4,600). Total Estimated Operating Cost: While the GPU itself draws 700W, the server, cooling, and infrastructure (PUE factor) often bring the total power consumption per GPU to 1kW or more. Therefore, the 5-year operating cost for electricity and cooling per card can easily exceed $6,500–$8,000+. [3, 6, 7, 8] Total 5-Year Cost Per GPU (Card + Energy): ~$36,000–$48,000. 3. Key Factors & Context Break-even: For continuous, 24/7 AI workloads, purchasing H100/H200 GPUs is generally more cost-effective than cloud renting after about 12–18 months of operation. Memory Shortages: 2026 prices are high due to a global VRAM shortage, affecting HBM3e supply. Blackwell (B200) Impact: While B200 is available, H200 remains a top contender due to its 141GB HBM3e memory, which is crucial for running large models without needing to cluster multiple GPUs. [3, 9, 10, 11] Disclaimer: Prices are based on February/March 2026 market estimates and can vary significantly based on supplier, volume, and location. [12] AI can make mistakes, so double-check responses [1] https://www.bestgpusforai.com/blog/best-gpus-for-ai [2] https://www.runpod.io/articles/guides/best-gpu-for-ai-training-2026 [3] https://docs.jarvislabs.ai/blog/h200-price [4] https://www.cnbc.com/2024/03/19/nvidias-blackwell-ai-chip-will-cost-more-than-30000-ceo-says.html [5] https://intuitionlabs.ai/articles/nvidia-ai-gpu-pricing-guide [6] https://www.cloudsyntrix.com/blogs/how-nvidia-blackwell-gpus-are-transforming-cloud-costs-and-revenue/ [7] https://news.ycombinator.com/item?id=45058036 [8] https://northflank.com/blog/best-gpu-for-ai [9] https://www.youtube.com/watch?v=A7wFsp48Be8 [10] https://www.youtube.com/watch?v=oNwQZgq5-Jo [11] https://intuitionlabs.ai/articles/nvidia-ai-gpu-pricing-guide [12] https://www.thundercompute.com/blog/nvidia-h100-pricing >Operating an H200 24/7 for 5 years will incur significant electricity costs, often matching or exceeding the initial purchase price of the hardware due to high power consumption and continuous operation. [4] не дабл-чекнул респонс?) matching or exceeding не похоже на 10% если все равно не веришь, то почему Оракл стока бабок залутал? эта компания не делает чипы или не выпускает модели Я дабл чекнул Ты БЛЯТЬ НЕ МОЖЕШЬ НАЙТИ РАСЧЕТ СТОИМОСТИ ИЛИ ЧТО???? 40'000 стоимость покупки 4'000 стоимость электроэнергии 24/7 на 5 лет хорошо, пусть будет 10%, энивей это не хуйня я уж не говорю о том, что без этой десятины остальные 90% работать не будут
-
але, это пакистан? Чел идиот 1) Ну во первых да ИИ нужна энергия но не так уж и много и недостаток именно в чипах а не энергии блять. Энергия это копейки по сравнению с чипами))))))) 2) Электроэнергия не из нефти получается)))))))))))))))))))))) и даже не из газа обычно тк газ тратится на обогрев / химпром 3) США вообще-то экспортер)))))))))))))))))))))))))))))))))))))))))) и у Китая тоже угля до пизды как и ядерных станций и тд Хуясе не много. У одного Маска аппетиты на 2ГВт (два ядерных реактора). А ведь помимо него есть и другие игроки. Плюс наверняка почти все имеющиеся мощности заняты, т.е. нужно строить новую инфраструктуру под этот блудняк (очень много бабок). Вот тебе инфа - как я и сказал электроэнергия это в худшем случае 10% от общей стоимости По поводу имеющихся мощностей - с имеющимися мощностями по производству чипов ВСЕ ЕЩЕ ХУДЕ РАЗ В 10-100 As of early 2026, the best NVIDIA GPU for high-end, heavy-duty neural network training and inference is the NVIDIA H200 (Hopper architecture), with the next-generation B200 (Blackwell) also becoming available. A single NVIDIA H200 GPU typically costs between $30,000 and $40,000. [1, 2, 3] Operating an H200 24/7 for 5 years will incur significant electricity costs, often matching or exceeding the initial purchase price of the hardware due to high power consumption and continuous operation. [4] 1. Cost of the Best NVIDIA GPU (H200 - 2026) Unit Price: $30,000–$40,000 (single H200 NVL/SXM). System Price: An 8-GPU H200 server (often necessary for large-scale training) can exceed $300,000–$500,000. Alternatives: The H100 (80GB) is considered the "workhorse" standard and costs $27,000–$40,000 per unit. [3, 5] 2. Electricity Cost for 5 Years Non-Stop Operation Power Consumption: A single H200/H100 SXM GPU typically operates at up to 700W. Total Energy (5 Years): 700 Watts × 24 hours × 365 days × 5 years = 30,660 kWh per GPU. Electricity Rates: Assuming an average commercial data center rate of $0.15 per kWh, the cost is roughly: Per GPU (5 Years): $4,599 (approx. $4,600). Total Estimated Operating Cost: While the GPU itself draws 700W, the server, cooling, and infrastructure (PUE factor) often bring the total power consumption per GPU to 1kW or more. Therefore, the 5-year operating cost for electricity and cooling per card can easily exceed $6,500–$8,000+. [3, 6, 7, 8] Total 5-Year Cost Per GPU (Card + Energy): ~$36,000–$48,000. 3. Key Factors & Context Break-even: For continuous, 24/7 AI workloads, purchasing H100/H200 GPUs is generally more cost-effective than cloud renting after about 12–18 months of operation. Memory Shortages: 2026 prices are high due to a global VRAM shortage, affecting HBM3e supply. Blackwell (B200) Impact: While B200 is available, H200 remains a top contender due to its 141GB HBM3e memory, which is crucial for running large models without needing to cluster multiple GPUs. [3, 9, 10, 11] Disclaimer: Prices are based on February/March 2026 market estimates and can vary significantly based on supplier, volume, and location. [12] AI can make mistakes, so double-check responses [1] https://www.bestgpusforai.com/blog/best-gpus-for-ai [2] https://www.runpod.io/articles/guides/best-gpu-for-ai-training-2026 [3] https://docs.jarvislabs.ai/blog/h200-price [4] https://www.cnbc.com/2024/03/19/nvidias-blackwell-ai-chip-will-cost-more-than-30000-ceo-says.html [5] https://intuitionlabs.ai/articles/nvidia-ai-gpu-pricing-guide [6] https://www.cloudsyntrix.com/blogs/how-nvidia-blackwell-gpus-are-transforming-cloud-costs-and-revenue/ [7] https://news.ycombinator.com/item?id=45058036 [8] https://northflank.com/blog/best-gpu-for-ai [9] https://www.youtube.com/watch?v=A7wFsp48Be8 [10] https://www.youtube.com/watch?v=oNwQZgq5-Jo [11] https://intuitionlabs.ai/articles/nvidia-ai-gpu-pricing-guide [12] https://www.thundercompute.com/blog/nvidia-h100-pricing >Operating an H200 24/7 for 5 years will incur significant electricity costs, often matching or exceeding the initial purchase price of the hardware due to high power consumption and continuous operation. [4] не дабл-чекнул респонс?) matching or exceeding не похоже на 10% если все равно не веришь, то почему Оракл стока бабок залутал? эта компания не делает чипы или не выпускает модели
-
але, это пакистан? Чел идиот 1) Ну во первых да ИИ нужна энергия но не так уж и много и недостаток именно в чипах а не энергии блять. Энергия это копейки по сравнению с чипами))))))) 2) Электроэнергия не из нефти получается)))))))))))))))))))))) и даже не из газа обычно тк газ тратится на обогрев / химпром 3) США вообще-то экспортер)))))))))))))))))))))))))))))))))))))))))) и у Китая тоже угля до пизды как и ядерных станций и тд Хуясе не много. У одного Маска аппетиты на 2ГВт (два ядерных реактора). А ведь помимо него есть и другие игроки. Плюс наверняка почти все имеющиеся мощности заняты, т.е. нужно строить новую инфраструктуру под этот блудняк (очень много бабок).
-
Глянул две серии Портобелло (2025 или 2026) -- какой же кайф. 0 негров, 0 лгбт, 0 повестки, но не это главное. В сирике интересные диалоги и приятная картинка. Создатели хорошо постарались, чтобы воссоздать ту эпоху. Отдельно бы отметил игру актеров. В оригинале их итальянская речь выразительна и мелодична. Прям старый добрый HBO. Советую!
-
думаешь они уже обладают технологией воскрешения? вроде ж нынешний ритуал как раз и должен даровать силы подобные силы
