Перейти к публикации
  • Сейчас на странице   Всего пользователей: 1   (0 пользователей, 1 гость)

Rooster

Программирование, т. 7

  

536 пользователей проголосовало

У вас нет прав на голосование в этом опросе, или на просмотр результатов опроса. Пожалуйста, войдите или зарегистрируйтесь для голосования в опросе.

Рекомендованные сообщения

Думаю надо махнуть вову на hira88, а то чё-то хира давно ничего не писал.

Поделиться сообщением


Ссылка на сообщение

Я немного не по теме дисскусии.

Прошел собеседование и 2 тестовых в большую компанию на интернатуру. Шас позвали на ласт собеседование, назвали его по телефону что-то вроде “знакомсто с лидом”. С ХРом за жизнь я уже общался.

Вопрос: что они хотят от этого собеса и на что мне надо обратить внимание?

посмотреть что ты адекватный

что ты готов осваивать и стараться, что интересуешься

что ты пришел на работу в которой ты замотивирован развиваться и добиваться результатов. а не попросиживать штаны

это - из критичного

 

а так просто что за человек


 

очень крутые котейки

RqvSzvr.png


Кому-то пизды дал - нужно сделать скрин обязательно. (с) Solo

Поделиться сообщением


Ссылка на сообщение

@@TheDeadSkin

Не знаешь часом почему энум можно использовать как параметр и так и так, я привык к второму варианту ибо часто его видел, но чет в коде который смотрю сейчас, первый встречается много.

OverlapTrigger_0->SetCollisionResponseToAllChannels(ECR_Ignore);

OverlapTrigger_0->SetCollisionResponseToAllChannels(ECollisionResponse::ECR_Ignore);

сам энум объявлен вот так

уже ответили, но если что добавлю это С-шный энум, со всем вытекающим из этого говнищем

это самый пиздец в плюсах - легаси из С где хуй поймёшь у него есть аналог плюсовой или нет

Поделиться сообщением


Ссылка на сообщение

 

 

Что такое ненастоящий акураси

 

Почему кросс-энтропия пиздец

обощённый ф1

 

потому что пиздец

потому что она тут нахуй не нужна

тут нужна абсолютно метрика а не относительная

поэтому кросс-энтропия нахуй, А/Б тоже нахуй

 

 

Кросс-энтропия и есть АБСОЛЮТНАЯ метрика

 

Не уверен что понимаешь сабж...

 

@TheDeadSkin

 

Есть че ответить ? :D

И чем обычная accuracy на равномерной выборке классов плоха (не оптимальна) кстате так и не увидел ответа


towBCf6.pngimage.png.6f88ac9ad688355eb803ba0b32e309ca.pngimage.png.c05354238865437022b3e4a97a835dbd.pngimage.png.0e8329f2b07e208ae8ef4e3f6878d126.png

 

 

 

Поделиться сообщением


Ссылка на сообщение

Я предложил accuracy на равномерном распределении классов 

Как это хуже f-1 score можно услышать?

что есть "accuracy на равномерном распределении классов" ?

accuracy а приори меряет каким-то хуем (попадания / общее кол-во), вряд ли что-то основаное на этом принципе внесёт хоть что-то новое по сравнению с теми формулами

ты хоть ссылку ту открывал?

 

Чет рили ты пару дней в топике, но самый зашкварный чувак из всех что тут были :avtorklif:

вроде не самый

были какие-то совсем отбитые

это хотя бы или что-то знает, или хотя б гуглом пользоваться умеет, но при этом трёпа больше чем пользы

 

Кросс-энтропия и есть АБСОЛЮТНАЯ метрика

 

Не уверен что понимаешь сабж...

чтоб быть абсолютной она требует знания настоящего PDF и эстимейта PDF который будет меняться от параметров

иначе ты можешь сравнивать только два эстимейта

даже если забыть на секунду о том что ему даже два эстимейта сравнить будет сложно т.к. надо из этого дела вытащить PDF, каким хуем он найдёт настоящий?

Поделиться сообщением


Ссылка на сообщение

 


Кросс-энтропия и есть АБСОЛЮТНАЯ метрика

Не уверен что понимаешь сабж...

чтоб быть абсолютной она требует знания настоящего PDF и эстимейта PDF который будет меняться от параметров
иначе ты можешь сравнивать только два эстимейта
даже если забыть на секунду о том что ему даже два эстимейта сравнить будет сложно т.к. надо из этого дела вытащить PDF, каким хуем он найдёт настоящий?

 

Cross-entropy ничем не отличается от accuracy в плане каких то дополнительных знаний

 

За исключением того что классификатор должен выдавать вероятности а не one hot vector 

 

Такие дела


 

 

что есть "accuracy на равномерном распределении классов" ?

 

Ну тебе нужны данные чтобы затестить на них и результат очевидно зависит от твоих (test) данных

 

Ты берешь одинаковое количество данных из каждого класса получая равномерное распределение классов

 

Вуаля и больше нет малопредставленных классов =)


towBCf6.pngimage.png.6f88ac9ad688355eb803ba0b32e309ca.pngimage.png.c05354238865437022b3e4a97a835dbd.pngimage.png.0e8329f2b07e208ae8ef4e3f6878d126.png

 

 

 

Поделиться сообщением


Ссылка на сообщение

ну и каким хуем он это будет делать?

хуйнёшь PDF для любого простейшего примера с классификатором?

Поделиться сообщением


Ссылка на сообщение

 

 

accuracy а приори меряет каким-то хуем (попадания / общее кол-во), вряд ли что-то основаное на этом принципе внесёт хоть что-то новое по

 

Accuracy показывает тупо вероятность правильной классификации а это он вроде и хочет :D

 

Оставте рассуждения про внесет / не внесет для философов.  ^_^  


towBCf6.pngimage.png.6f88ac9ad688355eb803ba0b32e309ca.pngimage.png.c05354238865437022b3e4a97a835dbd.pngimage.png.0e8329f2b07e208ae8ef4e3f6878d126.png

 

 

 

Поделиться сообщением


Ссылка на сообщение
(изменено)

Ну тебе нужны данные чтобы затестить на них и результат очевидно зависит от твоих (test) данных

 

Ты берешь одинаковое количество данных из каждого класса получая равномерное распределение классов

 

Вуаля и больше нет малопредставленных классов =)

это единственное адекватное из того что ты предложил, я об этом тоже думал, но проблема в том что так же как и в случае с подсчётом ф1-макро она портит показатели на большие классы

 

поэтому если и юзать эту хрень то только в комплексе с остальными метриками - т.е. ф1-микро и ф1-макро


Изменено пользователем TheDeadSkin

Поделиться сообщением


Ссылка на сообщение

ну и каким хуем он это будет делать?

хуйнёшь PDF для любого простейшего примера с классификатором?

 

Почти любой классификатор предсказывает вероятность а потом выбирает самую высокую 

 

Ну тебе нужны данные чтобы затестить на них и результат очевидно зависит от твоих (test) данных

 

Ты берешь одинаковое количество данных из каждого класса получая равномерное распределение классов

 

Вуаля и больше нет малопредставленных классов =)

это единственное адекватное из того что ты предложил, я об этом тоже думал, но проблема в том что так же как и в случае с подсчётом ф1-макро она портит показатели на большие классы

 

поэтому если и юзать эту хрень то только в комплексе с остальными метриками - т.е. ф1-микро и ф1-макро

 

 

Очевидно ты просто считаешь accuracy с коэффициентом 1/(число примеров в классе) и ничего не теряется

или  "портится" как ты выразился


towBCf6.pngimage.png.6f88ac9ad688355eb803ba0b32e309ca.pngimage.png.c05354238865437022b3e4a97a835dbd.pngimage.png.0e8329f2b07e208ae8ef4e3f6878d126.png

 

 

 

Поделиться сообщением


Ссылка на сообщение

Почти любой классификатор предсказывает вероятность а потом выбирает самую высокую

что ты будешь кормить в энтропию-то? самую большую?

Очевидно ты просто считаешь accuracy с коэффициентом 1/(число примеров в классе) и ничего не теряется

дай формулу чтоли

и как оно может не теряться если классификатор игнорит кучу тестовых данных?

Поделиться сообщением


Ссылка на сообщение

 

Почти любой классификатор предсказывает вероятность а потом выбирает самую высокую

что ты будешь кормить в энтропию-то? самую большую?

Очевидно ты просто считаешь accuracy с коэффициентом 1/(число примеров в классе) и ничего не теряется

дай формулу чтоли

и как оно может не теряться если классификатор игнорит кучу тестовых данных?

 

 

Ну классы распределены так A(90%) B(9% ) C(1%)

 

Когда выпадает A допустим классификатор угадывает его правильно с accuracy acc-A

 

Ну потом берешь среднее acc-A acc-B acc-C  :D


towBCf6.pngimage.png.6f88ac9ad688355eb803ba0b32e309ca.pngimage.png.c05354238865437022b3e4a97a835dbd.pngimage.png.0e8329f2b07e208ae8ef4e3f6878d126.png

 

 

 

Поделиться сообщением


Ссылка на сообщение

грац

ты изобрёл ф1-макро

 

щас ты добавишь взвешеное среднее завивисимо от кол-ва элементов в классе и когда ты его сократишь то изобретёшь ещё и ф1-микро

Поделиться сообщением


Ссылка на сообщение

 

Почти любой классификатор предсказывает вероятность а потом выбирает самую высокую

что ты будешь кормить в энтропию-то? самую большую?

 

 

https://datascience.stackexchange.com/questions/9302/the-cross-entropy-error-function-in-neural-networks

грац

ты изобрёл ф1-макро

 

щас ты добавишь взвешеное среднее завивисимо от кол-ва элементов в классе и когда ты его сократишь то изобретёшь ещё и ф1-микро

 

То что я описал это F-1 макро ? Ты отвечаешь за свои слова ?)


towBCf6.pngimage.png.6f88ac9ad688355eb803ba0b32e309ca.pngimage.png.c05354238865437022b3e4a97a835dbd.pngimage.png.0e8329f2b07e208ae8ef4e3f6878d126.png

 

 

 

Поделиться сообщением


Ссылка на сообщение

То что я описал это F-1 макро ? Ты отвечаешь за свои слова ?)

да

 

или ты описал ф1-макро

или ты не умеешь говорить и описал какую-то хуйню которую только ты сам и понимаешь

потому что

 

Когда выпадает A допустим классификатор угадывает его правильно с accuracy acc-A

самое логичное что может быть

acc-A = кол-во правильных попаданий в А / кол-во представителей А

 

или ты под этим что-то другое подразумевал?

Поделиться сообщением


Ссылка на сообщение

 

То что я описал это F-1 макро ? Ты отвечаешь за свои слова ?)

да

 

или ты описал ф1-макро

или ты не умеешь говорить и описал какую-то хуйню которую только ты сам и понимаешь

потому что

 

Когда выпадает A допустим классификатор угадывает его правильно с accuracy acc-A

самое логичное что может быть

acc-A = кол-во правильных попаданий в А / кол-во представителей А

 

или ты под этим что-то другое подразумевал?

 

 

Именно это и имел ввиду

 

Только боюсь ты не понимаешь даже что такое просто F-1 score

Кстате можно ссылочку из достоверного источника (википедии) на ваши микро и макро


towBCf6.pngimage.png.6f88ac9ad688355eb803ba0b32e309ca.pngimage.png.c05354238865437022b3e4a97a835dbd.pngimage.png.0e8329f2b07e208ae8ef4e3f6878d126.png

 

 

 

Поделиться сообщением


Ссылка на сообщение
(изменено)

мои поздравления
 

F работает на любом количестве классов, если все свести к куче бинарных классификаций:
https://sebastianraschka.com/faq/docs/multiclass-metric.html


по ссылке выше ты сможешь забрать свой приз в виде форумы которуя я назвал в первом же после этой дискуссии и которую потом вкинули ссылкой, что было 3 страницы назад
 

Только боюсь ты не понимаешь даже что такое просто F-1 score


это Я его не понимаю?
я прекрасно понимаю что такое ф1 и почему эта формуа это не ф1
я блядь страницу это объяснял самому супремусу и в диалоге с тобой я его специально назвал "ненастоящий/фейковый ф1"
для того чтоб сделать отсылку к тому что сказано по линку вброшеному супремусом
для того чтоб ты потом не начал рассказывать что это не ф1

но ты всё-равно это сделал
потому что чукча не читатель, чукча писатель
карманный эксперт который не умеет даже читать зато

FEATURE ENGINEERING
 

кстати твой второй приз это игнор лист

нейронная сеть в моей черепной коробке классифицировала тебя как class-D Dолбоёба и вынудила меня заигнорить тебя во избежание потерь времени на какую-то хуйню в будущем


Изменено пользователем TheDeadSkin
Supremus, fessnik и Kant понравилось это

Поделиться сообщением


Ссылка на сообщение

 

 

Прикольно ты сгорел конечно

 

Но по твоей ссылки нет F-1 macro =(

 

А ведь ты мне обещал

 

грац

ты изобрёл ф1-макро

 

щас ты добавишь взвешеное среднее завивисимо от кол-ва элементов в классе и когда ты его сократишь то изобретёшь ещё и ф1-микро

 

То что я описал это F-1 макро ? Ты отвечаешь за свои слова ?)

 

towBCf6.pngimage.png.6f88ac9ad688355eb803ba0b32e309ca.pngimage.png.c05354238865437022b3e4a97a835dbd.pngimage.png.0e8329f2b07e208ae8ef4e3f6878d126.png

 

 

 

Поделиться сообщением


Ссылка на сообщение
(изменено)

 

 

 

Прикольно ты сгорел конечно

 

Но по твоей ссылки нет F-1 macro =(

 

А ведь ты мне обещал

 

ДА МНЕ ПОЕБАТЬ

ты изобретаешь велосипед уже страницу при том что точно то же самое было сказано 3 страницы назад, ДВАЖДЫ

 

ну и классическая концовка, нечего сказать - доебись до терминологии

"по ссылке нет", да ты её не открывал ни разу до этого, хотя вокруг неё я изначально строил дискуссию


Изменено пользователем TheDeadSkin

Поделиться сообщением


Ссылка на сообщение

 

 

 

 

Прикольно ты сгорел конечно

 

Но по твоей ссылки нет F-1 macro =(

 

А ведь ты мне обещал

 

грац

ты изобрёл ф1-макро

 

щас ты добавишь взвешеное среднее завивисимо от кол-ва элементов в классе и когда ты его сократишь то изобретёшь ещё и ф1-микро

 

То что я описал это F-1 макро ? Ты отвечаешь за свои слова ?)

 

 

ДА МНЕ ПОЕБАТЬ

ты изобретаешь велосипед уже страницу при том что точно то же самое было сказано 3 страницы назад, ДВАЖДЫ

 

 

Не знаю про 3 страницы назад то на этой странице ты почему то упорно кричал про F-1 score как и тот челик перед тем как уйти

Ну раз тебе поебать то это все меняет !

 

И да я первым сказал что надо брать accuracy сразу же раз уж речь зашла о велосипеде

 

 

ну и классическая концовка, нечего сказать - доебись до терминологии

 

Всмысле доебись ?)))) Типо я должен просечь что когда вы кричите про F-1 score вы имеете ввиду accuracy = precision ?))))))

 

Это жостко

 

Особенно учитывая что вначале вы именно кричали про F-1 score 


towBCf6.pngimage.png.6f88ac9ad688355eb803ba0b32e309ca.pngimage.png.c05354238865437022b3e4a97a835dbd.pngimage.png.0e8329f2b07e208ae8ef4e3f6878d126.png

 

 

 

Поделиться сообщением


Ссылка на сообщение
Гость
Эта тема закрыта для публикации сообщений.

×
×
  • Создать...