KingOfSpain #14221 8 марта Vova написал 5 минут назад: KingOfSpain написал 9 минут назад: mydear_friend написал 1 час назад: у кого есть ядерка? ебаните по израилю спасибо але, это пакистан? Vova написал 34 минуты назад: pyromaniac написал 6 часов назад: Чел идиот 1) Ну во первых да ИИ нужна энергия но не так уж и много и недостаток именно в чипах а не энергии блять. Энергия это копейки по сравнению с чипами))))))) 2) Электроэнергия не из нефти получается)))))))))))))))))))))) и даже не из газа обычно тк газ тратится на обогрев / химпром 3) США вообще-то экспортер)))))))))))))))))))))))))))))))))))))))))) и у Китая тоже угля до пизды как и ядерных станций и тд Хуясе не много. У одного Маска аппетиты на 2ГВт (два ядерных реактора). А ведь помимо него есть и другие игроки. Плюс наверняка почти все имеющиеся мощности заняты, т.е. нужно строить новую инфраструктуру под этот блудняк (очень много бабок). Вот тебе инфа - как я и сказал электроэнергия это в худшем случае 10% от общей стоимости По поводу имеющихся мощностей - с имеющимися мощностями по производству чипов ВСЕ ЕЩЕ ХУДЕ РАЗ В 10-100 As of early 2026, the best NVIDIA GPU for high-end, heavy-duty neural network training and inference is the NVIDIA H200 (Hopper architecture), with the next-generation B200 (Blackwell) also becoming available. A single NVIDIA H200 GPU typically costs between $30,000 and $40,000. [1, 2, 3] Operating an H200 24/7 for 5 years will incur significant electricity costs, often matching or exceeding the initial purchase price of the hardware due to high power consumption and continuous operation. [4] 1. Cost of the Best NVIDIA GPU (H200 - 2026) Unit Price: $30,000–$40,000 (single H200 NVL/SXM). System Price: An 8-GPU H200 server (often necessary for large-scale training) can exceed $300,000–$500,000. Alternatives: The H100 (80GB) is considered the "workhorse" standard and costs $27,000–$40,000 per unit. [3, 5] 2. Electricity Cost for 5 Years Non-Stop Operation Power Consumption: A single H200/H100 SXM GPU typically operates at up to 700W. Total Energy (5 Years): 700 Watts × 24 hours × 365 days × 5 years = 30,660 kWh per GPU. Electricity Rates: Assuming an average commercial data center rate of $0.15 per kWh, the cost is roughly: Per GPU (5 Years): $4,599 (approx. $4,600). Total Estimated Operating Cost: While the GPU itself draws 700W, the server, cooling, and infrastructure (PUE factor) often bring the total power consumption per GPU to 1kW or more. Therefore, the 5-year operating cost for electricity and cooling per card can easily exceed $6,500–$8,000+. [3, 6, 7, 8] Total 5-Year Cost Per GPU (Card + Energy): ~$36,000–$48,000. 3. Key Factors & Context Break-even: For continuous, 24/7 AI workloads, purchasing H100/H200 GPUs is generally more cost-effective than cloud renting after about 12–18 months of operation. Memory Shortages: 2026 prices are high due to a global VRAM shortage, affecting HBM3e supply. Blackwell (B200) Impact: While B200 is available, H200 remains a top contender due to its 141GB HBM3e memory, which is crucial for running large models without needing to cluster multiple GPUs. [3, 9, 10, 11] Disclaimer: Prices are based on February/March 2026 market estimates and can vary significantly based on supplier, volume, and location. [12] AI can make mistakes, so double-check responses [1] https://www.bestgpusforai.com/blog/best-gpus-for-ai [2] https://www.runpod.io/articles/guides/best-gpu-for-ai-training-2026 [3] https://docs.jarvislabs.ai/blog/h200-price [4] https://www.cnbc.com/2024/03/19/nvidias-blackwell-ai-chip-will-cost-more-than-30000-ceo-says.html [5] https://intuitionlabs.ai/articles/nvidia-ai-gpu-pricing-guide [6] https://www.cloudsyntrix.com/blogs/how-nvidia-blackwell-gpus-are-transforming-cloud-costs-and-revenue/ [7] https://news.ycombinator.com/item?id=45058036 [8] https://northflank.com/blog/best-gpu-for-ai [9] https://www.youtube.com/watch?v=A7wFsp48Be8 [10] https://www.youtube.com/watch?v=oNwQZgq5-Jo [11] https://intuitionlabs.ai/articles/nvidia-ai-gpu-pricing-guide [12] https://www.thundercompute.com/blog/nvidia-h100-pricing >Operating an H200 24/7 for 5 years will incur significant electricity costs, often matching or exceeding the initial purchase price of the hardware due to high power consumption and continuous operation. [4] не дабл-чекнул респонс?) matching or exceeding не похоже на 10% если все равно не веришь, то почему Оракл стока бабок залутал? эта компания не делает чипы или не выпускает модели Цитата Поделиться сообщением Ссылка на сообщение
Vova #14222 8 марта KingOfSpain написал Только что: Vova написал 14 минут назад: KingOfSpain написал 18 минут назад: mydear_friend написал 1 час назад: у кого есть ядерка? ебаните по израилю спасибо але, это пакистан? Vova написал 42 минуты назад: pyromaniac написал 7 часов назад: Чел идиот 1) Ну во первых да ИИ нужна энергия но не так уж и много и недостаток именно в чипах а не энергии блять. Энергия это копейки по сравнению с чипами))))))) 2) Электроэнергия не из нефти получается)))))))))))))))))))))) и даже не из газа обычно тк газ тратится на обогрев / химпром 3) США вообще-то экспортер)))))))))))))))))))))))))))))))))))))))))) и у Китая тоже угля до пизды как и ядерных станций и тд Хуясе не много. У одного Маска аппетиты на 2ГВт (два ядерных реактора). А ведь помимо него есть и другие игроки. Плюс наверняка почти все имеющиеся мощности заняты, т.е. нужно строить новую инфраструктуру под этот блудняк (очень много бабок). Вот тебе инфа - как я и сказал электроэнергия это в худшем случае 10% от общей стоимости По поводу имеющихся мощностей - с имеющимися мощностями по производству чипов ВСЕ ЕЩЕ ХУДЕ РАЗ В 10-100 As of early 2026, the best NVIDIA GPU for high-end, heavy-duty neural network training and inference is the NVIDIA H200 (Hopper architecture), with the next-generation B200 (Blackwell) also becoming available. A single NVIDIA H200 GPU typically costs between $30,000 and $40,000. [1, 2, 3] Operating an H200 24/7 for 5 years will incur significant electricity costs, often matching or exceeding the initial purchase price of the hardware due to high power consumption and continuous operation. [4] 1. Cost of the Best NVIDIA GPU (H200 - 2026) Unit Price: $30,000–$40,000 (single H200 NVL/SXM). System Price: An 8-GPU H200 server (often necessary for large-scale training) can exceed $300,000–$500,000. Alternatives: The H100 (80GB) is considered the "workhorse" standard and costs $27,000–$40,000 per unit. [3, 5] 2. Electricity Cost for 5 Years Non-Stop Operation Power Consumption: A single H200/H100 SXM GPU typically operates at up to 700W. Total Energy (5 Years): 700 Watts × 24 hours × 365 days × 5 years = 30,660 kWh per GPU. Electricity Rates: Assuming an average commercial data center rate of $0.15 per kWh, the cost is roughly: Per GPU (5 Years): $4,599 (approx. $4,600). Total Estimated Operating Cost: While the GPU itself draws 700W, the server, cooling, and infrastructure (PUE factor) often bring the total power consumption per GPU to 1kW or more. Therefore, the 5-year operating cost for electricity and cooling per card can easily exceed $6,500–$8,000+. [3, 6, 7, 8] Total 5-Year Cost Per GPU (Card + Energy): ~$36,000–$48,000. 3. Key Factors & Context Break-even: For continuous, 24/7 AI workloads, purchasing H100/H200 GPUs is generally more cost-effective than cloud renting after about 12–18 months of operation. Memory Shortages: 2026 prices are high due to a global VRAM shortage, affecting HBM3e supply. Blackwell (B200) Impact: While B200 is available, H200 remains a top contender due to its 141GB HBM3e memory, which is crucial for running large models without needing to cluster multiple GPUs. [3, 9, 10, 11] Disclaimer: Prices are based on February/March 2026 market estimates and can vary significantly based on supplier, volume, and location. [12] AI can make mistakes, so double-check responses [1] https://www.bestgpusforai.com/blog/best-gpus-for-ai [2] https://www.runpod.io/articles/guides/best-gpu-for-ai-training-2026 [3] https://docs.jarvislabs.ai/blog/h200-price [4] https://www.cnbc.com/2024/03/19/nvidias-blackwell-ai-chip-will-cost-more-than-30000-ceo-says.html [5] https://intuitionlabs.ai/articles/nvidia-ai-gpu-pricing-guide [6] https://www.cloudsyntrix.com/blogs/how-nvidia-blackwell-gpus-are-transforming-cloud-costs-and-revenue/ [7] https://news.ycombinator.com/item?id=45058036 [8] https://northflank.com/blog/best-gpu-for-ai [9] https://www.youtube.com/watch?v=A7wFsp48Be8 [10] https://www.youtube.com/watch?v=oNwQZgq5-Jo [11] https://intuitionlabs.ai/articles/nvidia-ai-gpu-pricing-guide [12] https://www.thundercompute.com/blog/nvidia-h100-pricing >Operating an H200 24/7 for 5 years will incur significant electricity costs, often matching or exceeding the initial purchase price of the hardware due to high power consumption and continuous operation. [4] не дабл-чекнул респонс?) matching or exceeding не похоже на 10% если все равно не веришь, то почему Оракл стока бабок залутал? эта компания не делает чипы или не выпускает модели Я дабл чекнул Ты БЛЯТЬ НЕ МОЖЕШЬ НАЙТИ РАСЧЕТ СТОИМОСТИ ИЛИ ЧТО???? 40'000 стоимость покупки 4'000 стоимость электроэнергии 24/7 на 5 лет KingOfSpain написал 4 минуты назад: если все равно не веришь, то почему Оракл стока бабок залутал? эта компания не делает чипы или не выпускает модели Спроси у ИИ блять нахуй ты меня спрашиваешь Вопрос был про электроэнергию vs стоимость чипов а не про Оракл Цитата Поделиться сообщением Ссылка на сообщение
KingOfSpain #14223 8 марта (изменено) Vova написал 11 минут назад: KingOfSpain написал 13 минут назад: Vova написал 26 минут назад: KingOfSpain написал 30 минут назад: mydear_friend написал 1 час назад: у кого есть ядерка? ебаните по израилю спасибо але, это пакистан? Vova написал 55 минут назад: pyromaniac написал 7 часов назад: Чел идиот 1) Ну во первых да ИИ нужна энергия но не так уж и много и недостаток именно в чипах а не энергии блять. Энергия это копейки по сравнению с чипами))))))) 2) Электроэнергия не из нефти получается)))))))))))))))))))))) и даже не из газа обычно тк газ тратится на обогрев / химпром 3) США вообще-то экспортер)))))))))))))))))))))))))))))))))))))))))) и у Китая тоже угля до пизды как и ядерных станций и тд Хуясе не много. У одного Маска аппетиты на 2ГВт (два ядерных реактора). А ведь помимо него есть и другие игроки. Плюс наверняка почти все имеющиеся мощности заняты, т.е. нужно строить новую инфраструктуру под этот блудняк (очень много бабок). Вот тебе инфа - как я и сказал электроэнергия это в худшем случае 10% от общей стоимости По поводу имеющихся мощностей - с имеющимися мощностями по производству чипов ВСЕ ЕЩЕ ХУДЕ РАЗ В 10-100 As of early 2026, the best NVIDIA GPU for high-end, heavy-duty neural network training and inference is the NVIDIA H200 (Hopper architecture), with the next-generation B200 (Blackwell) also becoming available. A single NVIDIA H200 GPU typically costs between $30,000 and $40,000. [1, 2, 3] Operating an H200 24/7 for 5 years will incur significant electricity costs, often matching or exceeding the initial purchase price of the hardware due to high power consumption and continuous operation. [4] 1. Cost of the Best NVIDIA GPU (H200 - 2026) Unit Price: $30,000–$40,000 (single H200 NVL/SXM). System Price: An 8-GPU H200 server (often necessary for large-scale training) can exceed $300,000–$500,000. Alternatives: The H100 (80GB) is considered the "workhorse" standard and costs $27,000–$40,000 per unit. [3, 5] 2. Electricity Cost for 5 Years Non-Stop Operation Power Consumption: A single H200/H100 SXM GPU typically operates at up to 700W. Total Energy (5 Years): 700 Watts × 24 hours × 365 days × 5 years = 30,660 kWh per GPU. Electricity Rates: Assuming an average commercial data center rate of $0.15 per kWh, the cost is roughly: Per GPU (5 Years): $4,599 (approx. $4,600). Total Estimated Operating Cost: While the GPU itself draws 700W, the server, cooling, and infrastructure (PUE factor) often bring the total power consumption per GPU to 1kW or more. Therefore, the 5-year operating cost for electricity and cooling per card can easily exceed $6,500–$8,000+. [3, 6, 7, 8] Total 5-Year Cost Per GPU (Card + Energy): ~$36,000–$48,000. 3. Key Factors & Context Break-even: For continuous, 24/7 AI workloads, purchasing H100/H200 GPUs is generally more cost-effective than cloud renting after about 12–18 months of operation. Memory Shortages: 2026 prices are high due to a global VRAM shortage, affecting HBM3e supply. Blackwell (B200) Impact: While B200 is available, H200 remains a top contender due to its 141GB HBM3e memory, which is crucial for running large models without needing to cluster multiple GPUs. [3, 9, 10, 11] Disclaimer: Prices are based on February/March 2026 market estimates and can vary significantly based on supplier, volume, and location. [12] AI can make mistakes, so double-check responses [1] https://www.bestgpusforai.com/blog/best-gpus-for-ai [2] https://www.runpod.io/articles/guides/best-gpu-for-ai-training-2026 [3] https://docs.jarvislabs.ai/blog/h200-price [4] https://www.cnbc.com/2024/03/19/nvidias-blackwell-ai-chip-will-cost-more-than-30000-ceo-says.html [5] https://intuitionlabs.ai/articles/nvidia-ai-gpu-pricing-guide [6] https://www.cloudsyntrix.com/blogs/how-nvidia-blackwell-gpus-are-transforming-cloud-costs-and-revenue/ [7] https://news.ycombinator.com/item?id=45058036 [8] https://northflank.com/blog/best-gpu-for-ai [9] https://www.youtube.com/watch?v=A7wFsp48Be8 [10] https://www.youtube.com/watch?v=oNwQZgq5-Jo [11] https://intuitionlabs.ai/articles/nvidia-ai-gpu-pricing-guide [12] https://www.thundercompute.com/blog/nvidia-h100-pricing >Operating an H200 24/7 for 5 years will incur significant electricity costs, often matching or exceeding the initial purchase price of the hardware due to high power consumption and continuous operation. [4] не дабл-чекнул респонс?) matching or exceeding не похоже на 10% если все равно не веришь, то почему Оракл стока бабок залутал? эта компания не делает чипы или не выпускает модели Я дабл чекнул Ты БЛЯТЬ НЕ МОЖЕШЬ НАЙТИ РАСЧЕТ СТОИМОСТИ ИЛИ ЧТО???? 40'000 стоимость покупки 4'000 стоимость электроэнергии 24/7 на 5 лет хорошо, пусть будет 10%, энивей это не хуйня я уж не говорю о том, что без этой десятины остальные 90% работать не будут Изменено 8 марта пользователем KingOfSpain Цитата Поделиться сообщением Ссылка на сообщение
BlackRabbit #14224 8 марта (изменено) Vova написал 1 час назад: Ну во первых да ИИ нужна энергия но не так уж и много и недостаток именно в чипах а не энергии блять. Энергия это копейки по сравнению с чипами))))))) Ну да когда у тебя 1 юнит хавает под 3-4 киловатта а в датацентрах десятки тысяч юнитов то электричество точно не один из критических ресурсов Vova написал 1 час назад: Электроэнергия не из нефти получается)))))))))))))))))))))) и даже не из газа обычно тк газ тратится на обогрев / химпром ага, кроме гидро, угольных и ядерных станций не существует же других видов Изменено 8 марта пользователем BlackRabbit Цитата Поделиться сообщением Ссылка на сообщение
NaxrenApm #14225 8 марта Я все думал что за шиза была с обрядом трампа, типа он совсем ебнулся. А он оказывается всегда был таким. Походу просто компроматом впрягание за евреев не объясняется > Многие талмудические раввины называли Трампа грядущим «Мохиахом» (еврейским Мессией), а Израильский фонд наследия вручил ему корону с надписью «Князь мира» — титул, который должен быть зарезервирован только для Иисуса Христа, — на мероприятии в Мар-а-Лаго в 2023 году. > Трамп тесно связан с культом Хабад Любавич уже много лет. На стене его офиса в Трамп-Тауэр висит награда от Хабада. Говорят, что даже его отец, Фред, был тесно с ним связан. Возможно, именно поэтому Трамп посетил могилу (Охель) Ребе Шнеерсона 7 октября 2024 года, перед выборами. Это был каббалистический ритуал, цель которого — получить знания и наставления от умершего, которому поклоняется культ Хабада. Это некромантия, и она максимально далека от христианства. > В прошлом Трамп предлагал казнить людей, которых он считает «антисемитами», и отстаивал законы Ноахидов, разместив в Белом доме символы принадлежности к Хабад, которые гласят, что «идолопоклонство», то есть поклонение Иисусу Христу, карается обезглавливанием, как «оправданное» созданным ими всемирным еврейским судом Синедриона. > Именно связь Трампа с движением «Хабад» объясняет, почему Джаред Кушнер играет столь заметную роль на мировой арене, даже не будучи избранным на выборах. Цитата Поделиться сообщением Ссылка на сообщение
Vova #14227 8 марта Ладно идите нахуй вы слишком тупые походу Если мощности на создание чипов забиты на 10 лет вперед то да энергия это точно самый ключевой фактор KingOfSpain написал 37 минут назад: Vova написал 48 минут назад: KingOfSpain написал 50 минут назад: Vova написал 1 час назад: KingOfSpain написал 1 час назад: mydear_friend написал 2 часа назад: у кого есть ядерка? ебаните по израилю спасибо але, это пакистан? Vova написал 1 час назад: pyromaniac написал 7 часов назад: Чел идиот 1) Ну во первых да ИИ нужна энергия но не так уж и много и недостаток именно в чипах а не энергии блять. Энергия это копейки по сравнению с чипами))))))) 2) Электроэнергия не из нефти получается)))))))))))))))))))))) и даже не из газа обычно тк газ тратится на обогрев / химпром 3) США вообще-то экспортер)))))))))))))))))))))))))))))))))))))))))) и у Китая тоже угля до пизды как и ядерных станций и тд Хуясе не много. У одного Маска аппетиты на 2ГВт (два ядерных реактора). А ведь помимо него есть и другие игроки. Плюс наверняка почти все имеющиеся мощности заняты, т.е. нужно строить новую инфраструктуру под этот блудняк (очень много бабок). Вот тебе инфа - как я и сказал электроэнергия это в худшем случае 10% от общей стоимости По поводу имеющихся мощностей - с имеющимися мощностями по производству чипов ВСЕ ЕЩЕ ХУДЕ РАЗ В 10-100 As of early 2026, the best NVIDIA GPU for high-end, heavy-duty neural network training and inference is the NVIDIA H200 (Hopper architecture), with the next-generation B200 (Blackwell) also becoming available. A single NVIDIA H200 GPU typically costs between $30,000 and $40,000. [1, 2, 3] Operating an H200 24/7 for 5 years will incur significant electricity costs, often matching or exceeding the initial purchase price of the hardware due to high power consumption and continuous operation. [4] 1. Cost of the Best NVIDIA GPU (H200 - 2026) Unit Price: $30,000–$40,000 (single H200 NVL/SXM). System Price: An 8-GPU H200 server (often necessary for large-scale training) can exceed $300,000–$500,000. Alternatives: The H100 (80GB) is considered the "workhorse" standard and costs $27,000–$40,000 per unit. [3, 5] 2. Electricity Cost for 5 Years Non-Stop Operation Power Consumption: A single H200/H100 SXM GPU typically operates at up to 700W. Total Energy (5 Years): 700 Watts × 24 hours × 365 days × 5 years = 30,660 kWh per GPU. Electricity Rates: Assuming an average commercial data center rate of $0.15 per kWh, the cost is roughly: Per GPU (5 Years): $4,599 (approx. $4,600). Total Estimated Operating Cost: While the GPU itself draws 700W, the server, cooling, and infrastructure (PUE factor) often bring the total power consumption per GPU to 1kW or more. Therefore, the 5-year operating cost for electricity and cooling per card can easily exceed $6,500–$8,000+. [3, 6, 7, 8] Total 5-Year Cost Per GPU (Card + Energy): ~$36,000–$48,000. 3. Key Factors & Context Break-even: For continuous, 24/7 AI workloads, purchasing H100/H200 GPUs is generally more cost-effective than cloud renting after about 12–18 months of operation. Memory Shortages: 2026 prices are high due to a global VRAM shortage, affecting HBM3e supply. Blackwell (B200) Impact: While B200 is available, H200 remains a top contender due to its 141GB HBM3e memory, which is crucial for running large models without needing to cluster multiple GPUs. [3, 9, 10, 11] Disclaimer: Prices are based on February/March 2026 market estimates and can vary significantly based on supplier, volume, and location. [12] AI can make mistakes, so double-check responses [1] https://www.bestgpusforai.com/blog/best-gpus-for-ai [2] https://www.runpod.io/articles/guides/best-gpu-for-ai-training-2026 [3] https://docs.jarvislabs.ai/blog/h200-price [4] https://www.cnbc.com/2024/03/19/nvidias-blackwell-ai-chip-will-cost-more-than-30000-ceo-says.html [5] https://intuitionlabs.ai/articles/nvidia-ai-gpu-pricing-guide [6] https://www.cloudsyntrix.com/blogs/how-nvidia-blackwell-gpus-are-transforming-cloud-costs-and-revenue/ [7] https://news.ycombinator.com/item?id=45058036 [8] https://northflank.com/blog/best-gpu-for-ai [9] https://www.youtube.com/watch?v=A7wFsp48Be8 [10] https://www.youtube.com/watch?v=oNwQZgq5-Jo [11] https://intuitionlabs.ai/articles/nvidia-ai-gpu-pricing-guide [12] https://www.thundercompute.com/blog/nvidia-h100-pricing >Operating an H200 24/7 for 5 years will incur significant electricity costs, often matching or exceeding the initial purchase price of the hardware due to high power consumption and continuous operation. [4] не дабл-чекнул респонс?) matching or exceeding не похоже на 10% если все равно не веришь, то почему Оракл стока бабок залутал? эта компания не делает чипы или не выпускает модели Я дабл чекнул Ты БЛЯТЬ НЕ МОЖЕШЬ НАЙТИ РАСЧЕТ СТОИМОСТИ ИЛИ ЧТО???? 40'000 стоимость покупки 4'000 стоимость электроэнергии 24/7 на 5 лет хорошо, пусть будет 10%, энивей это не хуйня я уж не говорю о том, что без этой десятины остальные 90% работать не будут Энергию всего можно перераспределить с других вещей Чипы нельзя Потому что это специализированные чипы BlackRabbit написал 36 минут назад: Vova написал 1 час назад: Ну во первых да ИИ нужна энергия но не так уж и много и недостаток именно в чипах а не энергии блять. Энергия это копейки по сравнению с чипами))))))) Ну да когда у тебя 1 юнит хавает под 3-4 киловатта а в датацентрах десятки тысяч юнитов то электричество точно не один из критических ресурсов Vova написал 1 час назад: Электроэнергия не из нефти получается)))))))))))))))))))))) и даже не из газа обычно тк газ тратится на обогрев / химпром ага, кроме гидро, угольных и ядерных станций не существует же других видов Да точно не критический ресурс для ИИ как минимум А какие станции еще ты знаешь?) Цитата Поделиться сообщением Ссылка на сообщение
Pigpol404 #14228 8 марта Ну как там Тегеран за 3 дня? Цитата Поделиться сообщением Ссылка на сообщение
DimоnGnom #14229 8 марта Хуесос на Трампе не мог начать 24 февраля, чтобы нам всем продолжительность было удобно сравнивать? Fenfir понравилось это Цитата Поделиться сообщением Ссылка на сообщение
E1azor #14230 8 марта (изменено) Vova написал 3 часа назад: Энергию всего можно перераспределить с других вещей охлаждать АЭС ночью это тот ещё геморрой, поставить рядом коробку с кремнием -- самое то (в такой связке считай дармовая энергия) Изменено 8 марта пользователем E1azor Vova понравилось это Цитата всё что пишу -- шизофренический бред Поделиться сообщением Ссылка на сообщение
rubish #14231 8 марта vidik.ua написал 7 часов назад: вообще называть Иран Персией - это как Украину Малороссией. ну там же всю дорогу самоназвание было Иран Цитата Колы я выросту - то хочу буты такым як я годные смайлы Поделиться сообщением Ссылка на сообщение
John Doe #14232 8 марта Seadog написал 8 часов назад: vidik.ua написал 8 часов назад: @John Doeсмотри как Иран успешно побеждает, перорально vidik.ua написал 8 часов назад: демократы стоят в сторонке хуя ты радостный а если в ответ прилетит по ядерному реактору Цитата Поделиться сообщением Ссылка на сообщение
E1azor #14233 8 марта какие же пендосы дегенераты когда они уже свернут свой цирк с конями или они ядерку готовятся расчехлять, ну я на это посмотрю Цитата всё что пишу -- шизофренический бред Поделиться сообщением Ссылка на сообщение
Seadog #14234 8 марта John Doe написал 51 минуту назад: Seadog написал 9 часов назад: vidik.ua написал 9 часов назад: @John Doeсмотри как Иран успешно побеждает, перорально vidik.ua написал 9 часов назад: демократы стоят в сторонке хуя ты радостный а если в ответ прилетит по ядерному реактору так его вроде уже уничтожили, кассад вчера писал Цитата В футболе мелочей не бывает! Стишок: Скажу болельщикам в укор,Скажу по долгу службы -Футбол нам нужен не для ссор,А для хорошей дружбы! Поделиться сообщением Ссылка на сообщение
Rolling_in #14235 8 марта Ну раз уважаемые партнеры просят, то надо прекратить, мало ли еще на переговорный фон повлияет. Совсем охуели. Pigpol404, let be friends, CliffEdge и 12 другим понравилось это Цитата Поделиться сообщением Ссылка на сообщение
John Doe #14236 8 марта (изменено) Rolling_in написал 43 минуты назад: Ну раз уважаемые партнеры просят, то надо прекратить, мало ли еще на переговорный фон повлияет. Совсем охуели. пендосы слишком ссыкливые чтобы признать что это китай предоставляет у нас и в своем то регионе не было достаточно современных спутников для сбора неразмытой фотоинформации и пока китайцы не помогли на наших спутниковых снимках было сплошное мыло вплоть до конца 22 года да и пока китайцы с оптикой не помогли то картинки с беспилотников тоже были сплошным мылом Изменено 8 марта пользователем John Doe Sword Cutlass и CliffEdge понравилось это Цитата Поделиться сообщением Ссылка на сообщение
E1azor #14237 8 марта Цитата всё что пишу -- шизофренический бред Поделиться сообщением Ссылка на сообщение
ImWithStupid #14238 8 марта kve1 написал 5 часов назад: еби детей @ поклоняйся сатане Еби детей @ Хвали еврей Цитата Поделиться сообщением Ссылка на сообщение
John Doe #14239 8 марта (изменено) пендосы вчера: иран себя плохо вел мы нанесем удар сокрушительной мощи чтобы их наказать пендосы ночью: получай нпз ебаный! Изменено 8 марта пользователем John Doe Цитата Поделиться сообщением Ссылка на сообщение
Seadog #14240 8 марта Цитата В футболе мелочей не бывает! Стишок: Скажу болельщикам в укор,Скажу по долгу службы -Футбол нам нужен не для ссор,А для хорошей дружбы! Поделиться сообщением Ссылка на сообщение