Как заставить этот код работать? Я в этом не разбираюсь. Как я понял нужно его запустить на питоне.
https://github.com/taki0112/UGATITВ предвкушении нового ивента на реакторе...
Или вторая фаза старого.
Комбинация двух ивентов
Взять фото себя старого, фото себя-тян и анимезировать их?
Чувствую скоро так можно будет любой фильм превратить в аниме.
Я даже побреюсь ради такого --_--
Не в коней же превращает
Кефирчик перелогинься.
Самое важное, не упустить это событие. Иначе, снова всё просплю.
Реактор ленив.
оставлю коммент, что бы не пропустить завязку, развязку и последующий конкурс от вождя
Ты ж уже добавлял в закладки прекрасные сиськи от Тайпо в 15 году. Как ты растерял столь сакральное знание?
Для меня сейчас стало открытием, что мои закладки оказывается все могут видеть...
Мы следим за тобой, ничтожество
Но никто их не смотрит, потому что ты нахуй никому не нужен, ведь у всех там одно и тоже: порнуха, лонгриды, мануалы и локальные мемы на тот случай, если тот диалог 5 лет назад снова повторится.
Что за глупости? У меня там только порнуха.
Дай пять, бро!
Хотя не, давай лучше просто помашем друг другу
Хотя не, давай лучше просто помашем друг другу
Членами
И ведь не соврал, 612 страниц... Пожалуй, я добавлю в закладки тебя.
Тоже добавил)
А когда он наконец повторится, то запостить мем ты уже не сможешь потому что он к тому выремени будет уже раковым бояном.
Классикой же
Хотеть онлайн сервер с возможностью мгновенно или почти мгновенно получить результат
Который через три минуты после выкладывания поста - нахуй сгорит, знаем, так как до этого о нём практически никто не знал и сервера не были подготовлены к огромной толпе извращенцев повёрнутых на аниме.
Ну так и мне не к спеху. Я прекрасно знаю что с ним произойдет на первых порах запуска.
Я вообще имею в виду.
Я вообще имею в виду.
На реддите пишут что это исходники самой нейросети, тойсть придется ее по новой тренировать. Если это действительно так, то извиняюсь за ложную тревогу. Будем ждать пока это полноценно реализуют и заставят работать через сайт .
Мы будем терпеливо ждать.
Попробую потренить как раз тенсерфло есть
Базы лиц
https://www.crcv.ucf.edu/data/Selfie/
http://www.nurs.or.jp/~nagadomi/animeface-character-dataset/
Видео как все работает НА КОРЕЙСКОМ
https://www.crcv.ucf.edu/data/Selfie/
http://www.nurs.or.jp/~nagadomi/animeface-character-dataset/
Видео как все работает НА КОРЕЙСКОМ
Бля тензор мозги бобо, домучаю и посижу подумаю
Тем временем японцы уже сделали первый шаг к созданию кошкодевочек.
http://www.vokrugsveta.ru/news/319639/?utm_source=facebook.com&utm_medium=social&utm_campaign=yaponskoe-pravitelstvo-odobrilo-zayavku-s
http://www.vokrugsveta.ru/news/319639/?utm_source=facebook.com&utm_medium=social&utm_campaign=yaponskoe-pravitelstvo-odobrilo-zayavku-s
Про это уже давно был пост
Нужен гипер-Кеп что бы расказал как запустить код и как в него базу данных записать
+
Никогда не работал с нейросетками. Забавно, что первый опыт с нейросетями будет от дурного желания стать аниме.
Могу объяснить, как это запустить на винде. Я немного сонный, но постараюсь написать понятно.
1 - Устанавливаем python x64 (на системах x32 можно запустить, но это не просто) (ставил на версию 3.7.0, но можно другую). При установке ставим галочку с параметром “PATH” (если коротко, сократит вызов в командной строке).
2 - Далее необходимо установить библиотеки на установленный интерпретатор python.
- Открываем командную строку (win+r и пишем “cmd”)
- пишем “pip install tensorflow==1.13.1” (можно поставить новую версию, но будет ругаться на вызов устаревших функций)
- пишем “pip install opencv-python”
- вроде больше ничего не требуется из библиотек
3 - Теперь нужно то, в чём будем запускать. Есть как минимум 3 способа
- написать простой батник (.bat) – одной строкой в блокноте
- установить PyCharm – придётся настроить конфигурацию (долго расписывать)
- установить Visual Studio – также придётся настраивать конфигурацию
4 - Скачиваем исходники (кнопка “clone or download” и там “download ZIP” в github)
5 - Скачиваем базы с лицами
- аниме-лица
- 3D-лица
6 - Создаём тестовую базу и тренировочную. В папке с исходным кодом создаём папку “dataset” -> там создаём папку с любым именем (это имя будет передаваться в программу) -> далее картинки из скачанных баз запихиваем по 2 папкам: “trainA”, “trainB”. То, что хотите превратить в аниме кидаете в папку “testA” или “testB”. Должно получится нечто вроде такого: “dataset” -> “ваша_База” -> “trainA” (с 3D-лицами), “trainB” (с 2D-лицами), “testA” (ваши фотки), “testB” (ваши фотки).
7 – Пишем батник для запуска.
- Создаём блокнот в папке с исходным кодом
- Пишем в нём “main.py --dataset имя_папки_с_базой --phase test”
- Сохраняем, закрываем, меняем расширение на .bat
- Запускаем его
Если всё сделано правильно, должна появится консоль и начаться выполнение.
Теперь немного об настройках
- “--phase” имеет два варианта: “train” (обучает модель), “ test” (использует модель)
- “--light true” вроде как снижает потребления памяти
Собственно, ставим “--phase train” - обучаем, ставим “--phase test” – трансформируем фотки с помощью обученной модели.
Теперь о грустном. Я смог добиться обучения, но моего железо нихера не хватает для адекватного обучения, может если поигратся с настройками что-то даст… незнаю градиентный спуск пониже сделать… или эпох поменьше..
Если у меня будет тренированная модель, я бы мог попробовать конвертировать это всё в аккуратный exe файл и соответственно не будет еботни с питоном (я такое уже проворачивал, не сложно). Можно даже соединить это с графическим интерфейсом.
З.Ы. Я писал это всё немного внеадеквате… если есть потребность, могу после работы оформить это в красивом посте и даже поотвечать на вопросы по установке и запуску там же…
З.Ы.Ы Хуёвый из меня Гипер-Кеп
1 - Устанавливаем python x64 (на системах x32 можно запустить, но это не просто) (ставил на версию 3.7.0, но можно другую). При установке ставим галочку с параметром “PATH” (если коротко, сократит вызов в командной строке).
2 - Далее необходимо установить библиотеки на установленный интерпретатор python.
- Открываем командную строку (win+r и пишем “cmd”)
- пишем “pip install tensorflow==1.13.1” (можно поставить новую версию, но будет ругаться на вызов устаревших функций)
- пишем “pip install opencv-python”
- вроде больше ничего не требуется из библиотек
3 - Теперь нужно то, в чём будем запускать. Есть как минимум 3 способа
- написать простой батник (.bat) – одной строкой в блокноте
- установить PyCharm – придётся настроить конфигурацию (долго расписывать)
- установить Visual Studio – также придётся настраивать конфигурацию
4 - Скачиваем исходники (кнопка “clone or download” и там “download ZIP” в github)
5 - Скачиваем базы с лицами
- аниме-лица
- 3D-лица
6 - Создаём тестовую базу и тренировочную. В папке с исходным кодом создаём папку “dataset” -> там создаём папку с любым именем (это имя будет передаваться в программу) -> далее картинки из скачанных баз запихиваем по 2 папкам: “trainA”, “trainB”. То, что хотите превратить в аниме кидаете в папку “testA” или “testB”. Должно получится нечто вроде такого: “dataset” -> “ваша_База” -> “trainA” (с 3D-лицами), “trainB” (с 2D-лицами), “testA” (ваши фотки), “testB” (ваши фотки).
7 – Пишем батник для запуска.
- Создаём блокнот в папке с исходным кодом
- Пишем в нём “main.py --dataset имя_папки_с_базой --phase test”
- Сохраняем, закрываем, меняем расширение на .bat
- Запускаем его
Если всё сделано правильно, должна появится консоль и начаться выполнение.
Теперь немного об настройках
- “--phase” имеет два варианта: “train” (обучает модель), “ test” (использует модель)
- “--light true” вроде как снижает потребления памяти
Собственно, ставим “--phase train” - обучаем, ставим “--phase test” – трансформируем фотки с помощью обученной модели.
Теперь о грустном. Я смог добиться обучения, но моего железо нихера не хватает для адекватного обучения, может если поигратся с настройками что-то даст… незнаю градиентный спуск пониже сделать… или эпох поменьше..
Если у меня будет тренированная модель, я бы мог попробовать конвертировать это всё в аккуратный exe файл и соответственно не будет еботни с питоном (я такое уже проворачивал, не сложно). Можно даже соединить это с графическим интерфейсом.
З.Ы. Я писал это всё немного внеадеквате… если есть потребность, могу после работы оформить это в красивом посте и даже поотвечать на вопросы по установке и запуску там же…
З.Ы.Ы Хуёвый из меня Гипер-Кеп
Я сделал на базе condu, но тоже в ограничения по железу уперся. На рабочей VDS не разместить, там gpu отсутствует, печаль.
Плохо шарю, подскажите: нужен GPU, да? Есть сервак с двумя Ксеонами Голд 5122 и 64 РАМ. Не то, что очень хотелось бы на нем (пока все это захреначил на виртуалку, но всего с 12 оперативки), но на ночь можно было бы. Бесполезно?
https://github.com/taki0112/UGATIT/issues/3
> One NVIDIA V100 32GB GPU.
> It takes 4 days.
Если у тебя нету хотя бы пару 1080ti, то бесполезно.
Без GPU, на твоем железе, это займет пару лет.
> One NVIDIA V100 32GB GPU.
> It takes 4 days.
Если у тебя нету хотя бы пару 1080ti, то бесполезно.
Без GPU, на твоем железе, это займет пару лет.
Спасибо тебе за инструкцию, но есть вопрос, а это нормально, что у меня видяха в простое, а вот проц и память под 100%?
Ага. Если ты следовал инструкциям, то у тебя стоит tensorflow для CPU (и вероятно для процессорных команд AVX).
Если хочешь поставить раком свою видюху, тебе надо установить tensorflow-gpu (“pip install tensorflow-gpu”). Там немного сложнее чем с CPU, не все видюхи поддерживает и нужно дополнительный софт (CUDA и cuDNN вродь).
Тут подробнее.
Из недр хабра:
«TensorFlow очень аппаратно- и версионно- зависим. И вот что бы его установить как описанно выше (без плясок с бубном) получается только под CPU, под GPU нужно знать необходимые версии python, CUDA, самой tensorflof. Например у меня под старенькой видеокартой Nvidia GTX 660 Ti работает только следующая связка Python 3.6, CUDA 9.0 (именно 9.0, не 9.1 и не 9.2, и уж тем более не 10.х) и tensorflow == 1.5 (это под Win10, вероятно под Ubuntu 18.04 можно запустить более свежие версии). Во всех остальных случает ругается «dll not found» причем без указании конкретной dll и отправляет на сайт tesorflow в раздел траблшутинга (в корень форума, а сам дальше ищи как хочешь). Я понимаю, что устройств с поддержкой CUDA очень много и на каждое не опишешь «танец с бубном», но предостерегаю желающих попробовать, что бы не опускали руки в самом начале когда на них поваляться «ошибки без описания»»
Если хочешь поставить раком свою видюху, тебе надо установить tensorflow-gpu (“pip install tensorflow-gpu”). Там немного сложнее чем с CPU, не все видюхи поддерживает и нужно дополнительный софт (CUDA и cuDNN вродь).
Тут подробнее.
Из недр хабра:
«TensorFlow очень аппаратно- и версионно- зависим. И вот что бы его установить как описанно выше (без плясок с бубном) получается только под CPU, под GPU нужно знать необходимые версии python, CUDA, самой tensorflof. Например у меня под старенькой видеокартой Nvidia GTX 660 Ti работает только следующая связка Python 3.6, CUDA 9.0 (именно 9.0, не 9.1 и не 9.2, и уж тем более не 10.х) и tensorflow == 1.5 (это под Win10, вероятно под Ubuntu 18.04 можно запустить более свежие версии). Во всех остальных случает ругается «dll not found» причем без указании конкретной dll и отправляет на сайт tesorflow в раздел траблшутинга (в корень форума, а сам дальше ищи как хочешь). Я понимаю, что устройств с поддержкой CUDA очень много и на каждое не опишешь «танец с бубном», но предостерегаю желающих попробовать, что бы не опускали руки в самом начале когда на них поваляться «ошибки без описания»»
Тут создают кошкодевочек
Оставлю комент
вы сегодня аниме?
дождались (почти)
В ожидании оставлю коммент чтобы не потерять новость.
+
Ы!
Интересно, я бы попробовал
Народ. Я прекрасно понимаю что не являюсь единственным человеком с пекучим желанием в жопе переделать некоторые фотки однокурсниц в аниме. Но тем не менее, если кто то все таки осилит всю эту талмудистику с кодами и нейросетками, с радостью (и опять таки не я один буду благодарен) приму ссылку на архив. Премного благодарен. (И да, я так хитроебисто решил отметить для себя пост)
Ах ты хитрая жопа.
Ждём онлайн сервис...
https://selfie2anime.com/
https://waifu.lofiu.com/
вот два
https://waifu.lofiu.com/
вот два
так блет, куда мне фоточку загружать? я слишком тупой для всего этого дерьма...
да
встану за вами
ML инженер в треде
В этой сетке нет вообще ничего революционного, все что в ней могло быть ценного это уже натренированные веса и\или датасет. Без этих двух вещей проверить\повторить результат авторов не получится. Если кто не в курсе, то в науке кризис реплицируемости -- никто не перепроверяет чужие данные, особенно если это долго и трудно, так что этим многие пользуются и банально пиздят. Особенно этим грешат китайцы и индусы (sic!), их репозитории и статьи сделаны достаточно правдоподобно для подачи_на_грант\защиты_кандиатской\отчета_о_гранте и все, при попытке воспроизвести их результаты будет какая-то хуита.
В представленной репе весов нет, значит придется тренить самому, но датасета тоже нет)
В статье можно прочесть: "selfie2anime. The selfie dataset contains 46,836 selfieimages annotated with 36 different attributes. However, we only use photos of females as training data and test data. The size of the training dataset is 3400, and that of the test dataset is 100, with the image size of 256 x 256. For the anime dataset, we have firstly retrieved 69,926 animation character images from Anime-Planet. Among those images, 27,023 face images are extracted by using an anime-face detector2. After selecting only female character images and removing monochrome images manually, we have collected two datasets of female anime face images, with the sizes of 3400 and 100 for training and test data respectively,which is the same numbers as the selfie dataset. Finally, all anime face images are resized to 256 x 256 by applying a CNN-based image super-resolution algorithm."
Т.е.: датасета нет, мы его собирали и препроцессили руками (46К картинок), после чего апскейнули картинки используя чужую нейросетку для апскейла анимешных картинок: https://github.com/nagadomi/waifu2x
Это все весьма удобно -- если у вас не получилось воспроизвести результаты авторов, то вы собрали хуевый датасет или неправильно его разметили или вам просто не повезло. Но свой датасет мы вам не дадим НДА\жадность\проф.тайна\етц.
В этой сетке нет вообще ничего революционного, все что в ней могло быть ценного это уже натренированные веса и\или датасет. Без этих двух вещей проверить\повторить результат авторов не получится. Если кто не в курсе, то в науке кризис реплицируемости -- никто не перепроверяет чужие данные, особенно если это долго и трудно, так что этим многие пользуются и банально пиздят. Особенно этим грешат китайцы и индусы (sic!), их репозитории и статьи сделаны достаточно правдоподобно для подачи_на_грант\защиты_кандиатской\отчета_о_гранте и все, при попытке воспроизвести их результаты будет какая-то хуита.
В представленной репе весов нет, значит придется тренить самому, но датасета тоже нет)
В статье можно прочесть: "selfie2anime. The selfie dataset contains 46,836 selfieimages annotated with 36 different attributes. However, we only use photos of females as training data and test data. The size of the training dataset is 3400, and that of the test dataset is 100, with the image size of 256 x 256. For the anime dataset, we have firstly retrieved 69,926 animation character images from Anime-Planet. Among those images, 27,023 face images are extracted by using an anime-face detector2. After selecting only female character images and removing monochrome images manually, we have collected two datasets of female anime face images, with the sizes of 3400 and 100 for training and test data respectively,which is the same numbers as the selfie dataset. Finally, all anime face images are resized to 256 x 256 by applying a CNN-based image super-resolution algorithm."
Т.е.: датасета нет, мы его собирали и препроцессили руками (46К картинок), после чего апскейнули картинки используя чужую нейросетку для апскейла анимешных картинок: https://github.com/nagadomi/waifu2x
Это все весьма удобно -- если у вас не получилось воспроизвести результаты авторов, то вы собрали хуевый датасет или неправильно его разметили или вам просто не повезло. Но свой датасет мы вам не дадим НДА\жадность\проф.тайна\етц.
О состоянии датасетов в этом проекте: https://github.com/taki0112/UGATIT/issues/6
О состоянии претрейненой модели в этом проекте: https://github.com/taki0112/UGATIT/issues/5
О времени тренировки: https://github.com/taki0112/UGATIT/issues/3
О состоянии претрейненой модели в этом проекте: https://github.com/taki0112/UGATIT/issues/5
О времени тренировки: https://github.com/taki0112/UGATIT/issues/3
Согласен на 100%.
Всех этих CycleGAN like сетей как дерьма, и одна лучше другой по заявлениям авторов.
Самое ценное это хороший датасет. Ну и оттюненные параметры сети под этот датасет.
Ждем когда расшерят веса, без них это все фигня.
Сколько раз натыкался на подобное. В статье приподносят свой алгоритм как нечто революционное, а по делу толко от него немного.
Сейчас хотят зафорсить вот этот чеклист https://www.cs.mcgill.ca/~jpineau/ReproducibilityChecklist.pdf
И правильно делают.
Всех этих CycleGAN like сетей как дерьма, и одна лучше другой по заявлениям авторов.
Самое ценное это хороший датасет. Ну и оттюненные параметры сети под этот датасет.
Ждем когда расшерят веса, без них это все фигня.
Сколько раз натыкался на подобное. В статье приподносят свой алгоритм как нечто революционное, а по делу толко от него немного.
Сейчас хотят зафорсить вот этот чеклист https://www.cs.mcgill.ca/~jpineau/ReproducibilityChecklist.pdf
И правильно делают.
Идея, конечно, хороша, но не думаю, что взлетит. Ща очень много всяких штук есть следствие autoML, как гридсерча (aka брутфорс) так и всяких эволюционных алгоритмов. Они часто работают лучше предшественников, но оч трудно объяснить почему.
В целом, складывается впечатление, что все R&D сидят плотно на autoML и если ты получил годные результаты, то твой алгоритм такой: если ты понимаешь как это работает и можешь объяснить -- пишешь, что вы сами это придумали и публикуешь; если не можешь объяснить -- пишешь 'мамой клянусь' вот код, проверьте сами и публикуешь.
В целом, складывается впечатление, что все R&D сидят плотно на autoML и если ты получил годные результаты, то твой алгоритм такой: если ты понимаешь как это работает и можешь объяснить -- пишешь, что вы сами это придумали и публикуешь; если не можешь объяснить -- пишешь 'мамой клянусь' вот код, проверьте сами и публикуешь.
Чтобы написать коммент, необходимо залогиниться
Отличный комментарий!