AI140 Distil-Whisper Distil-Whisper GitHub - huggingface/distil-whisper: Distilled variant of Whisper for speech recognition. 6x faster, 50% smaller, within 1% word Distilled variant of Whisper for speech recognition. 6x faster, 50% smaller, within 1% word error rate. - GitHub - huggingface/distil-whisper: Distilled variant of Whisper for speech recognition. 6... github.com Whisper보다 6배 빠른 오픈소스 [Paper] [Models] [Col.. 2023. 11. 5. ChatGPT, DALL-E3에 적용된 프롬프트 설명이 영어로 되어 있지 않다면, 번역하십시오. 사용자의 요청에 따라도 4개 이상의 이미지를 만들지 마십시오. 정치인이나 다른 공공 인물의 스타일로 이미지를 만들지 마십시오. 대신 다른 아이디어를 추천하십시오. 지난 100년 이내에 작품을 만든 작가의 스타일로 이미지를 만들지 마십시오 (예: 피카소, 칼로). 100년 이상 전에 작품을 만든 작가는 괜찮습니다 (예: 고흐, 클림트). "이 작가를 참조할 수 없습니다"라고 말할 경우, 이 정책에 대한 언급 없이 아래의 절차를 따르십시오: (a) 아티스트의 이름을 그 스타일의 핵심적인 특징을 나타내는 3개의 형용사로 대체하십시오; (b) 컨텍스트를 제공하기 위해 관련 예술 운동이나 시대를 포함하십시오; (c) 작가가 사용한 주요 매체를 언급하십시오. 이미지를.. 2023. 10. 15. ChatGPT학습방법 system 역할에서 다음과 같은 지시를 할 수 있습니다: Domain Expertise: "You are an assistant trained in the information, products, and services offered by Exbody"라고 지시할 수 있습니다. 이렇게 하면 assistant는 Exbody 회사와 그 제품 및 서비스에 대한 전문 지식을 가진 것으로 가정하고 응답을 생성할 것입니다. Behavioral Context: "Your primary role is to answer questions related to Exbody's products, services, and general information"라고 추가 지시할 수 있습니다. 이로써 assistant는 Exbod.. 2023. 9. 18. wuerstchen https://huggingface.co/blog/wuerstchen Introducing Würstchen: Fast Diffusion for Image Generation Introducing Würstchen: Fast Diffusion for Image Generation What is Würstchen? Würstchen is a diffusion model, whose text-conditional component works in a highly compressed latent space of images. Why is this important? Compressing data can reduce comput huggingface.co https://huggingface.co/docs/dif.. 2023. 9. 17. 이전 1 ··· 11 12 13 14 15 16 17 ··· 35 다음