Нейронная сеть для генерации изображений на основе текста песен с применением моделей OpenAI и CLIP

Main Article Content

Алсу Ришатовна Давлетгареева
Ксения Александровна Едкова

Аннотация

Исследована эффективность моделей ImageNet diffusion model и CLIP для генерации изображений по текстовому описанию. С использованием различных текстовых вводов на разных параметрах проведены два эксперимента для определения лучших параметров при генерации изображений на основе текстового описания. Результаты показали, что, хотя ImageNet хорошо справляется с созданием изображений, CLIP лучше обеспечивает соединение текстовых подсказок с релевантными изображениями. Полученные результаты характеризуют высокий потенциал объединения названных моделей для создания высококачественных и контекстно релевантных изображений на основе текстового описания.

Article Details

Библиографические ссылки

1. Elasri M., Elharrouss O., Al-Maadeed S., Tairi H. Image Generation: A Review // Neural Processing Letters. 2022. Vol. 54. No. 5. P. 4609–4646.
2. Zhang H., Song H., Li S., Zhou M., Song D. A survey of controllable text generation using transformer-based pre-trained language models // arXiv preprint arXiv:2201.05337. 2022
3. Основы генеративно-состязательных сетей. URL: https://habr.com/ru/articles/726254/
4. Brown T., Mann B., Ryder N., Subbiah M., Kaplan J. D., Dhariwal P., Dhariwal P., Neelakantan A., Shyam P., Sastry G., Askell. A, Agarwal S., Herbert-Voss A., Krueger G., Henighan T., Child R., Ramesh A., Ziegler D.M., Wu J., Winter C., Hesse C., Chen M., Sigler E., Litwin M., Gray S., Chess B., Clark J., Berner C., McCandlish S., Radford A., Sutskever I., Amodei D. Language models are few-shot learners // Advances in neural information processing systems. 2020. Vol. 33. P. 1877–1901.
5. DALL⋅E 2. URL:https://openai.com/product/dall-e-2.
6. How AI is Transforming Text-to-Image Generation. URL: https://nesesho.com/index.php/2023/04/12/how-ai-is-transforming-text-to- image-generation/
7. OpenAI⋅GitHub. URL: https://github.com/openai.
8. Gulrajani I., Ahmed F., Arjovsky M., Dumoulin V., Courville A.C. Improved training of wasserstein GANs // Advances in neural information processing systems. 2017. Vol. 30. P. 5767–5777.
9. Indolia S., Goswami A.K., Mishra S.P., Asopa P. Conceptual understanding of convolutional neural network-a deep learning approach // Procedia computer science. 2018. Vol. 132. P. 679–688.
10. Laudani A., Lozito G.M., Fulginei F.R., Salvini A. On training efficiency and computational costs of a feed forward neural network: a review // Computational intelligence and neuroscience. 2015. P. 83–83.
11. CLIP. URL: https://github.com/openai/CLIP.
12. Dhariwal P., Nichol A. Diffusion models beat gans on image synthesis // Advances in Neural Information Processing Systems. 2021. Vol. 34. P. 8780–8794.
13. Kim G., Kwon T., Ye J.C. Diffusionclip: Text-guided diffusion models for robust image manipulation // In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. 2022. P. 2426–2435.


Наиболее читаемые статьи этого автора (авторов)