LynTeek #121 29 мая 2023 У меня знакомый завхозом в школе работает, там пару уборщиков нужно, могу тебя устроить Цитата Скрытый текст Работать западло.mp4 Поделиться сообщением Ссылка на сообщение
akaBeaver #122 16 июля 2023 ИИ сходит с ума при обучении на своих же данных Исследователи из Стэндфордского университета обнаружили потолок возможностей у генеративных моделей искусственного интеллекта, таких как ChatGPT или Midjourney. Оказалось, что они деградируют при многократном обучении на данных, сгенерированных самим же ИИ. В ходе исследования учёные вывели аббревиатуру MAD (Model Autophagy Disorder). Как следует из названия, модель «поедает сама себя». ИИ теряет информацию о «хвостах» (крайних точках) исходного распределения данных и начинает выводить результаты, которые больше соответствуют среднему представлению. Согласно результатам, требуется около пяти итераций, пока «хвосты» исходного распределения не исчезнут совсем. Изображение выше показывает наглядный результат подобных экспериментов. Выходит, что нельзя неограниченно получать генеративные данные, обучив модель один раз и далее основываясь на её же собственных результатах. Ещё одним важным моментом является проблема происхождения данных: теперь становится ещё важнее иметь возможность отделить «исходные» данные от «искусственных». Если нельзя определить, какая информация была создана нейросетью, есть риск случайно включить её в обучающие данные для своего продукта. Впрочем, поезд уже ушёл. Существует огромное количество немаркированных данных, которые уже были созданы этими типами сетей и включены в другие системы 3Dfx_Swamper понравилось это Цитата Я родился в провинции Лангедок в 1668 году. Мой род, хоть ныне и обедневший, принадлежит к одним из самых славных и древних семейств королевства. Мой отец, граф де Бриссак, сражался в Голландии в полку господина Лаваля, был ранен копьем при осаде Монферрата, на стенах которого он первым водрузил королевское знамя. До 17 лет я жил в родовом замке, где благодаря заботам моей матушки баронессы де Монжу был прилично воспитан и получил изрядное образование. Ныне, расставшись со своими дорогими родителями, дабы послужить отечеству на поле брани, прошу зачислить меня в роту чёрных гвардейцев его Величества. Поделиться сообщением Ссылка на сообщение
xeter #124 16 июля 2023 Это же еще в начале XX века была идея создать компьютер, скормить ему какие-то базовые вещи, аксиомы, и чтобы он дальше сам из них вычислил абсолютно все. Уже тогда поняли, что не получится. Цитата Поделиться сообщением Ссылка на сообщение
akaBeaver #125 16 июля 2023 ну тада выходит что современный ИИ ничем от копирайтера не отличается и без человека ,который создаёт, это пустышка Цитата Я родился в провинции Лангедок в 1668 году. Мой род, хоть ныне и обедневший, принадлежит к одним из самых славных и древних семейств королевства. Мой отец, граф де Бриссак, сражался в Голландии в полку господина Лаваля, был ранен копьем при осаде Монферрата, на стенах которого он первым водрузил королевское знамя. До 17 лет я жил в родовом замке, где благодаря заботам моей матушки баронессы де Монжу был прилично воспитан и получил изрядное образование. Ныне, расставшись со своими дорогими родителями, дабы послужить отечеству на поле брани, прошу зачислить меня в роту чёрных гвардейцев его Величества. Поделиться сообщением Ссылка на сообщение
Proest #126 16 июля 2023 akaBeaver said 3 hours ago: ИИ сходит с ума при обучении на своих же данных Исследователи из Стэндфордского университета обнаружили потолок возможностей у генеративных моделей искусственного интеллекта, таких как ChatGPT или Midjourney. Оказалось, что они деградируют при многократном обучении на данных, сгенерированных самим же ИИ. В ходе исследования учёные вывели аббревиатуру MAD (Model Autophagy Disorder). Как следует из названия, модель «поедает сама себя». ИИ теряет информацию о «хвостах» (крайних точках) исходного распределения данных и начинает выводить результаты, которые больше соответствуют среднему представлению. Согласно результатам, требуется около пяти итераций, пока «хвосты» исходного распределения не исчезнут совсем. Изображение выше показывает наглядный результат подобных экспериментов. Выходит, что нельзя неограниченно получать генеративные данные, обучив модель один раз и далее основываясь на её же собственных результатах. Ещё одним важным моментом является проблема происхождения данных: теперь становится ещё важнее иметь возможность отделить «исходные» данные от «искусственных». Если нельзя определить, какая информация была создана нейросетью, есть риск случайно включить её в обучающие данные для своего продукта. Впрочем, поезд уже ушёл. Существует огромное количество немаркированных данных, которые уже были созданы этими типами сетей и включены в другие системы AI - ncest PLASKOGUBCITHESLAYER понравилось это Цитата Поделиться сообщением Ссылка на сообщение