Перейти к публикации
  • Сейчас на странице   Всего пользователей: 1   (0 пользователей, 1 гость)

Rooster

Программирование, т. 8

  

315 пользователей проголосовало

У вас нет прав на голосование в этом опросе, или на просмотр результатов опроса. Пожалуйста, войдите или зарегистрируйтесь для голосования в опросе.

Рекомендованные сообщения

охуительный и непередаваемый UI десктопной jira :prayshit:


Saying that Java is nice because it works on all OS's is like saying that anal sex is nice because it works on all genders.
 

Поделиться сообщением


Ссылка на сообщение

десктопная жира? шта?


 

очень крутые котейки

RqvSzvr.png


Кому-то пизды дал - нужно сделать скрин обязательно. (с) Solo

Поделиться сообщением


Ссылка на сообщение
(изменено)

десктопная жира? шта?

да я имел ввиду сайт, короче сгорел. 


Изменено пользователем JuJeu

Saying that Java is nice because it works on all OS's is like saying that anal sex is nice because it works on all genders.
 

Поделиться сообщением


Ссылка на сообщение

 

десктопная жира? шта?

да я имел ввиду сайт, короче сгорел. 

 

там и апиха так себе  :rickroll:


:buba:

ни мало ни много, а много и мало

Поделиться сообщением


Ссылка на сообщение

охуительный и непередаваемый UI десктопной jira :prayshit:

я охерел, когда увидел, что на докер хабе есть образы всех версий жиры, и что она ломается патчем жарника на лету

 

поставь древнюю версию какую-нибудь и найди устраивающий тебя уи

Поделиться сообщением


Ссылка на сообщение

хочу сделать тестовое задание, но кроме синтаксиса ничего не знаю

 

Парсер валют XE.com
Необходимо написать парсер валют XE.com, который будет заходить на сайт, получать всю необходимую информацию и записывать её в базу данных. У сайта есть API, которая выдается на тестовый период - 7 дней, но она нас не интересует.
Страница, откуда необходимо собирать информацию:
https://www.xe.com/currencytables/?from=USD&date=2018-01-01

При работе обязательно использовать Scrapy.

Описание работы парсера:
В качестве аргументов мы передаём два параметра: dateBegin, dateEnd. Изначально, эти параметры задаются по умолчанию и если мы не указали их, то они равны: dateBegin = текущая дата - 7 дней, dateEnd = текущая дата. Как вариант, мы можем передать ему только один аргумент, например, dateEnd.
Если dateEnd < dateBegin, то dateBegin = dateEnd и мы парсим всего за один день.
Валюту мы не передаём, она изначально равна USD.

Опционально, будет плюсом:
- Использования postgres;
- Партицирование;
- Миграции для создания-удаления таблиц в базе данных;

Таблица, которую необходимо получить на выходе:
date, currency, units_per_us

 

 

https://www.pycoder.ru/make-simple-spider-scrapy/ этот тутор подойдет?


javascript:void(0);

Поделиться сообщением


Ссылка на сообщение

 

охуительный и непередаваемый UI десктопной jira :prayshit:

я охерел, когда увидел, что на докер хабе есть образы всех версий жиры, и что она ломается патчем жарника на лету

поставь древнюю версию какую-нибудь и найди устраивающий тебя уи

Я обычно с айпада сижу. Бтв, чекну.

Saying that Java is nice because it works on all OS's is like saying that anal sex is nice because it works on all genders.
 

Поделиться сообщением


Ссылка на сообщение

хочу сделать тестовое задание, но кроме синтаксиса ничего не знаю

 

Парсер валют XE.com

Необходимо написать парсер валют XE.com, который будет заходить на сайт, получать всю необходимую информацию и записывать её в базу данных. У сайта есть API, которая выдается на тестовый период - 7 дней, но она нас не интересует.

Страница, откуда необходимо собирать информацию:

https://www.xe.com/currencytables/?from=USD&date=2018-01-01

 

При работе обязательно использовать Scrapy.

 

Описание работы парсера:

В качестве аргументов мы передаём два параметра: dateBegin, dateEnd. Изначально, эти параметры задаются по умолчанию и если мы не указали их, то они равны: dateBegin = текущая дата - 7 дней, dateEnd = текущая дата. Как вариант, мы можем передать ему только один аргумент, например, dateEnd.

Если dateEnd < dateBegin, то dateBegin = dateEnd и мы парсим всего за один день.

Валюту мы не передаём, она изначально равна USD.

 

Опционально, будет плюсом:

- Использования postgres;

- Партицирование;

- Миграции для создания-удаления таблиц в базе данных;

 

Таблица, которую необходимо получить на выходе:

date, currency, units_per_us

 

 

https://www.pycoder.ru/make-simple-spider-scrapy/ этот тутор подойдет?

там же не парсится апишка

тебе питоном надо дернуть апи

получить жсон распарсить его и положить в БД


:buba:

ни мало ни много, а много и мало

Поделиться сообщением


Ссылка на сообщение
(изменено)

 

хочу сделать тестовое задание, но кроме синтаксиса ничего не знаю

 

Парсер валют XE.com

Необходимо написать парсер валют XE.com, который будет заходить на сайт, получать всю необходимую информацию и записывать её в базу данных. У сайта есть API, которая выдается на тестовый период - 7 дней, но она нас не интересует.

Страница, откуда необходимо собирать информацию:

https://www.xe.com/currencytables/?from=USD&date=2018-01-01

 

При работе обязательно использовать Scrapy.

 

Описание работы парсера:

В качестве аргументов мы передаём два параметра: dateBegin, dateEnd. Изначально, эти параметры задаются по умолчанию и если мы не указали их, то они равны: dateBegin = текущая дата - 7 дней, dateEnd = текущая дата. Как вариант, мы можем передать ему только один аргумент, например, dateEnd.

Если dateEnd < dateBegin, то dateBegin = dateEnd и мы парсим всего за один день.

Валюту мы не передаём, она изначально равна USD.

 

Опционально, будет плюсом:

- Использования postgres;

- Партицирование;

- Миграции для создания-удаления таблиц в базе данных;

 

Таблица, которую необходимо получить на выходе:

date, currency, units_per_us

 

 

https://www.pycoder.ru/make-simple-spider-scrapy/ этот тутор подойдет?

там же не парсится апишка

тебе питоном надо дернуть апи

получить жсон распарсить его и положить в БД

 

там с апи не надо работать

как я понял с помощью скрэпи выдергиваем данные из таблицы и пихаем их в бд

вот как раз пытаюсь разобраться как этим скрэпи достать данные из нужных столбцов и хотя бы вывести их в консоль

@@SKYnv леха помогай


Изменено пользователем Ramil

javascript:void(0);

Поделиться сообщением


Ссылка на сообщение

ну очевидно тебе надо разобраться как этим скапи вытянуть всё что тебе нужно. можешь посмотреть на их оф сайте документацию и мб примеры там есть https://scrapy.org/

Поделиться сообщением


Ссылка на сообщение
(изменено)

 

 

хочу сделать тестовое задание, но кроме синтаксиса ничего не знаю

 

Парсер валют XE.com

Необходимо написать парсер валют XE.com, который будет заходить на сайт, получать всю необходимую информацию и записывать её в базу данных. У сайта есть API, которая выдается на тестовый период - 7 дней, но она нас не интересует.

Страница, откуда необходимо собирать информацию:

https://www.xe.com/currencytables/?from=USD&date=2018-01-01

 

При работе обязательно использовать Scrapy.

 

Описание работы парсера:

В качестве аргументов мы передаём два параметра: dateBegin, dateEnd. Изначально, эти параметры задаются по умолчанию и если мы не указали их, то они равны: dateBegin = текущая дата - 7 дней, dateEnd = текущая дата. Как вариант, мы можем передать ему только один аргумент, например, dateEnd.

Если dateEnd < dateBegin, то dateBegin = dateEnd и мы парсим всего за один день.

Валюту мы не передаём, она изначально равна USD.

 

Опционально, будет плюсом:

- Использования postgres;

- Партицирование;

- Миграции для создания-удаления таблиц в базе данных;

 

Таблица, которую необходимо получить на выходе:

date, currency, units_per_us

 

 

https://www.pycoder.ru/make-simple-spider-scrapy/ этот тутор подойдет?

там же не парсится апишка

тебе питоном надо дернуть апи

получить жсон распарсить его и положить в БД

 

там с апи не надо работать

как я понял с помощью скрэпи выдергиваем данные из таблицы и пихаем их в бд

вот как раз пытаюсь разобраться как этим скрэпи достать данные из нужных столбцов и хотя бы вывести их в консоль

@@SKYnv леха помогай

 

для начала ты получаешь дату из параметра или без как там описано. С датой формируешь пул адресов которые будешь снифать, далее по очереди их подгружаешь и через xpath достаешь данные по курсу. Всё  :nate:


Изменено пользователем SKYnv
Ramil понравилось это

 

<< твой комментарий очень важен для форума.

Поделиться сообщением


Ссылка на сообщение

да, скрэппи подойдет, парсится тот сайт предельно элементарно, все статическое, никаких сраных эйджаксов, тупо строишь цикл из дат, кидаешь хттп запрос на каждую из нужных дат и парсишь себе хтмл. туториал, что ты кинул годится.

Ramil понравилось это

Поделиться сообщением


Ссылка на сообщение

щас бы данные из хтмл дергать  :avtorklif:  :avtorklif:  :avtorklif:


:buba:

ни мало ни много, а много и мало

Поделиться сообщением


Ссылка на сообщение

щас бы данные из хтмл дергать  :avtorklif:  :avtorklif:  :avtorklif:

анус себе дерни пёс  :trollface:

DDamager, SKYnv, Gydz и 3 другим понравилось это

javascript:void(0);

Поделиться сообщением


Ссылка на сообщение

Еще только тестовое делает, а уже рофлит над тестировщиками  :hmm:

Ramil, JuJeu и `KV понравилось это

Shaman.png.0cdd33d48561cd068bb3c5ee78289381.png Anna.jpeg.03c9b49363298ceec256500a5d522f7d.jpeg Nigga.jpg.f807f2556bdbf68452292a9301494591.jpg

 

Поделиться сообщением


Ссылка на сообщение
(изменено)

Я тут недавно начал тестить и оптимизировать свою аппу с x6 замедлением процессора. На удивление у нас все быстро работает. Были проблемы только когда юзер в репорт-билдере выбирал группу с 1к датасорсов, что в свою очередь спавнило 2 (а то и больше) дропдауна, в каждом по 1к элементов, и с таким ботлнеком процессора начинались дикие тормоза, ибо браузер тупо загибался если надо было работать с огромным количеством dom хуевин. В итоге как следует в девтулзе хроме все отпрафайлил, почекал где проблемы, переписал логику в дропдаунах слегка, дабы снизить нагрузку на state, и присобачил простой прогрессивный рендеринг с помощью react-tiny-virtual-list (3kb gzipped). Для сравнения, react-virtualized (сделанная поцанами из фейсбука) 34кб гзиппед (правда там не только лист, а целый набор неведомой еботы). Теперь вся эта хуйня работает отлично, учитывая сколько там всякой хуйни происходит.


Изменено пользователем suez

userbar-53933.png

http://codepen.io/suez/ - they see me bydlocoding, they hatin.

Поделиться сообщением


Ссылка на сообщение

В заголовке своего резюме поставил (0.1kb gzipped)


Shaman.png.0cdd33d48561cd068bb3c5ee78289381.png Anna.jpeg.03c9b49363298ceec256500a5d522f7d.jpeg Nigga.jpg.f807f2556bdbf68452292a9301494591.jpg

 

Поделиться сообщением


Ссылка на сообщение

Мы кстати ни один package не устанавливаем без предварительной проверки его на https://bundlephobia.com/


userbar-53933.png

http://codepen.io/suez/ - they see me bydlocoding, they hatin.

Поделиться сообщением


Ссылка на сообщение

А у меня вот в проекте напичканный под завязку плагинами tinymce + pdfjs + prismjs, думаю тебе была бы конечная если бы ты узнал размер бандла


Shaman.png.0cdd33d48561cd068bb3c5ee78289381.png Anna.jpeg.03c9b49363298ceec256500a5d522f7d.jpeg Nigga.jpg.f807f2556bdbf68452292a9301494591.jpg

 

Поделиться сообщением


Ссылка на сообщение

 

щас бы данные из хтмл дергать  :avtorklif:  :avtorklif:  :avtorklif:

анус себе дерни пёс  :trollface:

 

удачи братишка с хтмл

новый фронтэнд пес подьехал который кроме js css питона ничего не знает

как сможешь хотя бы локалхост поднять пиши


:buba:

ни мало ни много, а много и мало

Поделиться сообщением


Ссылка на сообщение
Гость
Эта тема закрыта для публикации сообщений.

×
×
  • Создать...