당신은 주제를 찾고 있습니까 “파이썬 딥 페이크 – \”아이유인데 아이유가 아닙니다\” | 머신러닝으로 딥페이크 영상을 직접 만들어 보았습니다 (feat. 박보검, 백종원)“? 다음 카테고리의 웹사이트 you.tfvp.org 에서 귀하의 모든 질문에 답변해 드립니다: https://you.tfvp.org/blog/. 바로 아래에서 답을 찾을 수 있습니다. 작성자 개발자 테드박 [개발/IT업계의 이야기] 이(가) 작성한 기사에는 조회수 113,443회 및 좋아요 657개 개의 좋아요가 있습니다.
파이썬 딥 페이크 주제에 대한 동영상 보기
여기에서 이 주제에 대한 비디오를 시청하십시오. 주의 깊게 살펴보고 읽고 있는 내용에 대한 피드백을 제공하세요!
d여기에서 \”아이유인데 아이유가 아닙니다\” | 머신러닝으로 딥페이크 영상을 직접 만들어 보았습니다 (feat. 박보검, 백종원) – 파이썬 딥 페이크 주제에 대한 세부정보를 참조하세요
요즘 여러 이슈가 많은 딥페이크.
딥페이크(Deep Fake)라는 기술이 어떤것인지 직접 영상을 만들면서 원리와 방법에 대해서 설명 해드립니다.
딥페이크기술을 이용한 음란물 제작은 명백한 범죄입니다.
딥페이크 음란물은 보지도 만들지도 맙시다.
파이썬 딥 페이크 주제에 대한 자세한 내용은 여기를 참조하세요.
딥페이크 구현하기 faceswap (1) – 네이버 블로그
이번장에서는 딥페이크 기법으로 영상을 만드는걸 파이썬으로 구현해보기로 한다. 딥페이크 기술이 무엇인지 잘 모르는 사람을 위해 딥페이크에 대해 …
Source: m.blog.naver.com
Date Published: 8/18/2021
View: 8906
딥페이크 하는 법 – 파이썬 Faceswap – Kpop Deepfakes
딥페이크 하는 법 – 파이썬 Faceswap English · 1. 선행 요건 · 2. 파이썬: faceswap 폴더 구조 · 3. 파이썬: 추출 – (DataB) 아이돌 얼굴셋 만들기 · 4. 파이썬: 추출 – ( …
Source: kpopdeepfakes.net
Date Published: 1/6/2021
View: 8920
[Deep Fake Tutorial] 나만의 딥페이크(Deep fake) 만들기(수지 …
[Deep Fake Tutorial] 나만의 딥페이크(Deep fake) 만들기(수지를 아이유로?) … conda create -y -n deepfacelab python=3.6.6 cudatoolkit=9.0 …Source: wonder-j.tistory.com
Date Published: 1/18/2021
View: 4813
구글, 코렙(Colab)에서 딥페이크 생성 AI 금지 – AI타임스
… 변경해 이 서비스를 더 이상 딥페이크 훈련에 사용할 수 없다는 조항을 추가했다.코렙은 누구나 웹 브라우저를 통해 임의의 파이썬(Python) 코드, …
Source: www.aitimes.com
Date Published: 12/29/2022
View: 1648
Deepfake Tutorial – 자신만의 딥페이크를 만들어 보자 (0부터 …
먼저 FaceSwap 즉, Deepfake를 구현하기 위해서는 VGA와 CPU의 성능이 좋아야합니다. 딥페이크를 구현하기 이전, CUDA와 tensorflow를 설치해보도록 …
Source: blog.system32.kr
Date Published: 3/10/2021
View: 5660
딥페이크, 얼굴 바꾸기: Faceswap 설치 및 사용법 (1) – sjblog
Anaconda 아나콘다 설치. Faceswap은 파이썬을 기반으로 실행되기 때문에 파이썬을 설치해야 합니다. 라이브러리 설치와 설치 과정에서 오류를 최소화 …
Source: sjblog1.tistory.com
Date Published: 2/9/2022
View: 3301
[코드학습후기] 딥페이크 코드 실행 후기 _ Deepfacelab_01
Install DeepFaceLab. 출처 : github. conda create -n deepfacelab -c main python=3.7 cudnn=7.6.
Source: didiforcoding.tistory.com
Date Published: 8/7/2021
View: 1079
Deepfakes step-by-step with DeepFaceLab / Python Face Swap
This course shows the current state of the art of future-oriented technology machine learning with a specific application, namely the exchange of faces in a …
Source: www.udemy.com
Date Published: 1/23/2022
View: 6737
(파이썬)zoom을 할 때 내가 아닌 아인슈타인이 되는 방법
이 기술은 딥페이크를 이용한 기술이며 관련 설명은 이곳을 눌러 확인해주세요. 저같이 파이썬을 능숙하게 다루지 못하여도 개발자의 설명을 보고 하면 어렵지 …
Source: biz.cha.ac.kr
Date Published: 5/17/2021
View: 7223
주제와 관련된 이미지 파이썬 딥 페이크
주제와 관련된 더 많은 사진을 참조하십시오 \”아이유인데 아이유가 아닙니다\” | 머신러닝으로 딥페이크 영상을 직접 만들어 보았습니다 (feat. 박보검, 백종원). 댓글에서 더 많은 관련 이미지를 보거나 필요한 경우 더 많은 관련 기사를 볼 수 있습니다.
주제에 대한 기사 평가 파이썬 딥 페이크
- Author: 개발자 테드박 [개발/IT업계의 이야기]
- Views: 조회수 113,443회
- Likes: 좋아요 657개
- Date Published: 2021. 2. 10.
- Video Url link: https://www.youtube.com/watch?v=p2POWAdB2AE
딥페이크 구현하기 faceswap (1) : 네이버 블로그
인공지능 기술을 활용해 기존의 인물의 얼굴이나, 특정한 부위를 영화의 CG처럼 합성한 영상 편집물을 말한다. 그 전에는 사진이나 영상을 편집프로그램으로 조악하게 합성해 게시하던게 디지털 기술과 인공지능의 발전으로 몇단계 정교해진 것이다.
원리 자체는 간단한데 합성하려는 인물의 얼굴이 주로 나오는 고화질의 동영상을 딥러닝 기법에 의해 취득한 후, 대상이 되는 동영상에 프레임 단위로 합성시키는 것이다.
머리 외곽선을 통째로 합성하는건 아니고, 안면 윤곽 안쪽과 피부톤을 맞쳐서 합성해가는데, 이게 엄청 정교해 보이는게 음성에는 손을 안대지만 입모양과 얼굴 표정을 완전 정교하게 매칭시켜서 합성하기 때문에 정말 데이터가 많은 딥페이크 영상은 원본과 구별하기가 매우 힘들다.
단점은, 영상의 화질이나, 처리되는 데이터가 적게되면, 조악하게 나온다는건데, 이게 요새같이 디지털 미디어에 얼굴이나 영상등이 나오는 유명인의 경우 데이터가 많아서 문제가 안된다.
그래서 현재 가장 문제되는게, 포르노 영상인데, 유명배우들이나 유명인들을 이용한 딥페이크 포르노가 너무나 정교해져서 가장 큰 문제가 되고 있다.
이게 만일 일반인으로까지 공포가 시작되면 SNS 활용폭이 매우 극단적으로 낮아지고 있어 한편으로는 딥페이크영상을 걸러내는 기술자체를 페이스북에서 캐글에 $1,000,000 상금을 걸고 최근에 개최하기도 했었다.
딥페이크 하는 법 – 파이썬 Faceswap
딥페이크 하는 법 – 파이썬 Faceswap English
Updated 2018/12/09
For DeepFaceLab, visit here (advanced users only)
다른 질문사항이 있다면 Deepfake Tech 게시판에 자유롭게 질문 해주세요!
1.선행 요건
최신 Nvidia 그랙카드 드라이버 설치
고성능 CPU와 더불어 VRAM(그래픽 카드 메모리) 2GB, compute capability 3.0이상의 GPU가 필요합니다.
GPU의 compute capability는 이 목록에서 확인하시고 3.0 미만이시면 포기하셔야 됩니다.
목록에 게재 되어있지 않은 GPU는 사용 불가능합니다.
최소사양을 충족 하신다면 GeForce Experience에서 GPU 드라이버를 최신버전으로 업데이트 하세요.
CUDA 9.0
Expand +++Tensorflow가 9.1 버젼과는 호환이 안되니 9.1은 절대 받지 마세요!!+++
사용하실 컴퓨터에 적합한 설정을 선택하시고 Installer Type을 exe (local)로 설정하신후 CUDA 9.0를 다운로드하세요.
설치화면이 뜨면 Custom Install 선택하신후 CUDA와 Other components 항목만 체크하시고 설치하세요.
+++Tensorflow가 9.1 버젼과는 호환이 안되니 9.1은 절대 받지 마세요!!+++
사용하실 컴퓨터에 적합한 설정을 선택하시고 Installer Type을 exe (local)로 설정하신후 CUDA 9.0를 다운로드하세요.
설치화면이 뜨면 Custom Install 선택하신후 CUDA와 Other components 항목만 체크하시고 설치하세요.
cudNN 7
Expand +++중요: Tensoflow는 cudnn 7.1.4와 호환되므로 절대 상위 버젼인 7.1을 받지 마세요!+++
여기에 회원가입 하신후 cuDNN v7.1.4 (May 16, 2018), for CUDA 9.0를 다운로드 하세요. 무조건 Windows 7/10용 cudNN v7.1.4 Library로 하세요!!. 자세한 설치방법은 항목 4.3에설명 되어 있습니다. 항목 4.3 한글 번역 다운받은 cudnn-9.0-windows10-x64-v7.1.zip 또는 cudnn-9.0-windows10-x64-v7.1.zip의 압축을 풀어줍니다 아래의 파일들을 해당 폴더로 옮깁니다: • cuda\bin\cudnn64_7.dll을 복사하여 C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v9.0\bin에 붙여넣기 합니다. • cuda\ include\cudnn.h을 복사하여 C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v9.0\include에 붙여넣기 합니다. • cuda\lib\x64\cudnn.lib을 복사하여 C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v9.0\lib\x64에 붙여넣기 합니다. cuDNN 위치를 환경변수에 추가 윈도우에 “환경변수 설정”을 검색합니다. 고급 설정(Advanced) -> 환경 변수(Environment Variables) 로 들어갑니다 새로 만들기(New)를 클릭하여 “변수 이름: CUDA_PATH”과 “변수 값: C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v9.0″을 추가합니다.
이미 추가가 되어 있는 경우에는 놔두셔도 됩니다. +++중요: Tensoflow는 cudnn 7.1.4와 호환되므로 절대 상위 버젼인 7.1을 받지 마세요!+++
여기에 회원가입 하신후 cuDNN v7.1.4 (May 16, 2018), for CUDA 9.0를 다운로드 하세요. 무조건 Windows 7/10용 cudNN v7.1.4 Library로 하세요!!. 자세한 설치방법은 항목 4.3에설명 되어 있습니다. 항목 4.3 한글 번역 다운받은 cudnn-9.0-windows10-x64-v7.1.zip 또는 cudnn-9.0-windows10-x64-v7.1.zip의 압축을 풀어줍니다 아래의 파일들을 해당 폴더로 옮깁니다: • cuda\bin\cudnn64_7.dll을 복사하여 C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v9.0\bin에 붙여넣기 합니다. • cuda\ include\cudnn.h을 복사하여 C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v9.0\include에 붙여넣기 합니다. • cuda\lib\x64\cudnn.lib을 복사하여 C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v9.0\lib\x64에 붙여넣기 합니다. cuDNN 위치를 환경변수에 추가 윈도우에 “환경변수 설정”을 검색합니다. 고급 설정(Advanced) -> 환경 변수(Environment Variables) 로 들어갑니다 새로 만들기(New)를 클릭하여 “변수 이름: CUDA_PATH”과 “변수 값: C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v9.0″을 추가합니다.
이미 추가가 되어 있는 경우에는 놔두셔도 됩니다.
ffmpeg
Expand 여기서 ffmpeg를 다운로드 하시고 C:\ 루트 디렉토리에 압축 풀어주세요. (최종 디렉토리: C:\ffmpeg-4.1-win64-static) 명령 프롬프트(cmd)에서 사용할수 있도록 ffmpeg를 시스템 환경 변수에 추가합니다. 윈도우 파일 검색창에 “Edit the system environment variables”를 입력하시고 오른쪽 아래에 있는 “Environment Variables…”을 클릭하세요.
그 다음 System Variables 설정탭에 있는 “Path” 항목을 선택하시고 편집버튼을 클릭 해주세요.
새로 뜬 창 오른편에 있는 “새로 만들기(New)”를 클릭하시고 아래의 경로를 추가해주세요. C:\ffmpeg-4.1-win64-static\bin 여기서 ffmpeg를 다운로드 하시고 C:\ 루트 디렉토리에 압축 풀어주세요. (최종 디렉토리: C:\ffmpeg-4.1-win64-static) 명령 프롬프트(cmd)에서 사용할수 있도록 ffmpeg를 시스템 환경 변수에 추가합니다. 윈도우 파일 검색창에 “Edit the system environment variables”를 입력하시고 오른쪽 아래에 있는 “Environment Variables…”을 클릭하세요.
그 다음 System Variables 설정탭에 있는 “Path” 항목을 선택하시고 편집버튼을 클릭 해주세요.
새로 뜬 창 오른편에 있는 “새로 만들기(New)”를 클릭하시고 아래의 경로를 추가해주세요. C:\ffmpeg-4.1-win64-static\bin
Python 3.6.7 (다운 링크)
Cmake 및 Microsoft Visual Studio 2015 C++ Build Tools 설치
Expand 아래의 명령어를 입력합니다 pip install cmake 그리고 여기서 Microsoft Visual Studio 2015 C++ Build Tools installer를 다운 받습니다. 설치시에 custom install을 고르시고, 다음에 “Windows 8.1 SDK” 와 “Windows 10 SDK”를 체크하고 설치를 계속 진행해주세요
아래의 명령어를 입력합니다 pip install cmake 그리고 여기서 Microsoft Visual Studio 2015 C++ Build Tools installer를 다운 받습니다. 설치시에 custom install을 고르시고, 다음에 “Windows 8.1 SDK” 와 “Windows 10 SDK”를 체크하고 설치를 계속 진행해주세요
Faceswap 설치
Expand 파이썬 faceswap을 여기서 받습니다:
압축을 풀고 “faceswap-master” 폴더를 C 드라이브로 옮긴 후 “faceswap” 으로 이름을 변경합니다 (C:\faceswap). cmd를 실행하고 아래의 명령어를 입력합니다 (cmd 켜는 방법 모르시면 여기를 참조): cd /d “C:\faceswap” && python setup.py 그러면 아래와 같은 화면이 뜰 것입니다. INFO The tool provides tips for installation and installs required python packages INFO Setup in Windows 10 INFO Installed Python: 3.6.5 64bit INFO Installed PIP: 10.0.1 Enable Docker? [Y/n] n <----- INFO Docker Disabled Enable CUDA? [Y/n] Y <----- INFO CUDA Enabled INFO Tensorflow has no official prebuilts for CUDA 9.1 currently. ...... WARNING Cannot find CUDA on non-Linux system Manually specify CUDA version: 9.0 Are System Dependencies met? [y/N] y <----- INFO Installing Missing Python Packages... INFO Installing tensorflow-gpu INFO Installing pathlib==1.0.1 ...... INFO Installing tqdm INFO Installing matplotlib INFO All python3 dependencies are met. You are good to go. “<——“의 왼쪽에는 질문에 대한 답이 요구되며, 위에 제시되어 있는 답을 쓰세요. 예를 들어 “Enable CUDA? [Y/n]” 라고 했을 때는 n을 입력하고 엔터를 누르세요. CUDA의 버젼을 물을 때는 9.0이라고 쓰고 엔터를 누르세요. 모든 게 정상적으로 진행 됐다면 넘어가시고, 성공하지 않으셨다면 아래의 과정을 따라하세요. cmd를 켜고 아래의 명령어를 입력합니다. cd /d "C:\faceswap" && pip install -r requirements.txt 컴퓨터가 자동적으로 텍스트를 UTF-8 포맷으로 변경하지 않아서 오류가 날 경우 아래의 스크린샷처럼 requirements.txt를 연 후 UTF-8 포맷으로 저장합니다: cmd를 켜고 아래의 명령어를 입력합니다. pip install tensorflow-gpu==1.11.0 파이썬 faceswap을 여기서 받습니다: 압축을 풀고 “faceswap-master” 폴더를 C 드라이브로 옮긴 후 “faceswap” 으로 이름을 변경합니다 (C:\faceswap). cmd를 실행하고 아래의 명령어를 입력합니다 (cmd 켜는 방법 모르시면 여기를 참조): cd /d "C:\faceswap" && python setup.py 그러면 아래와 같은 화면이 뜰 것입니다. INFO The tool provides tips for installation and installs required python packages INFO Setup in Windows 10 INFO Installed Python: 3.6.5 64bit INFO Installed PIP: 10.0.1 Enable Docker? [Y/n] n <----- INFO Docker Disabled Enable CUDA? [Y/n] Y <----- INFO CUDA Enabled INFO Tensorflow has no official prebuilts for CUDA 9.1 currently. ...... WARNING Cannot find CUDA on non-Linux system Manually specify CUDA version: 9.0 Are System Dependencies met? [y/N] y <----- INFO Installing Missing Python Packages... INFO Installing tensorflow-gpu INFO Installing pathlib==1.0.1 ...... INFO Installing tqdm INFO Installing matplotlib INFO All python3 dependencies are met. You are good to go. “<——“의 왼쪽에는 질문에 대한 답이 요구되며, 위에 제시되어 있는 답을 쓰세요. 예를 들어 “Enable CUDA? [Y/n]” 라고 했을 때는 n을 입력하고 엔터를 누르세요. CUDA의 버젼을 물을 때는 9.0이라고 쓰고 엔터를 누르세요. 모든 게 정상적으로 진행 됐다면 넘어가시고, 성공하지 않으셨다면 아래의 과정을 따라하세요. cmd를 켜고 아래의 명령어를 입력합니다. cd /d "C:\faceswap" && pip install -r requirements.txt 컴퓨터가 자동적으로 텍스트를 UTF-8 포맷으로 변경하지 않아서 오류가 날 경우 아래의 스크린샷처럼 requirements.txt를 연 후 UTF-8 포맷으로 저장합니다: cmd를 켜고 아래의 명령어를 입력합니다. pip install tensorflow-gpu==1.11.0 2. 파이썬: faceswap 폴더 구조 Expand 아래의 코드를 입력하여 실행되는지 확인하시기 바랍니다. 여기서 dlib 관련 에러가 발생하면 설치과정 중에 실수를 했을 수도 있습니다. cd /d "C:\faceswap" && python faceswap.py -h faceswap 폴더 안에 “DataA”와 “DataB”라는 두가지의 폴더를 만듭니다: 다음과 같은 추가적인 폴더를 만듭니다: C:\faceswap\DataA\actress1 -> 모델 영상 프레임/이미지 C:\faceswap\DataA\actress1\extracted -> 모델 영상 프레임/이미지에서 추출된 얼굴 C:\faceswap\DataB\idol1 -> 아이돌 영상 프레임/이미지 C:\faceswap\DataB\idol1\extracted -> 아이돌 영상 프레임/이미지에서 추출된 얼굴 C:\faceswap\DataA\model -> 학습시에 생성되는 파일들이 저장됩니다. 학습 시작시에 자동적으로 생기므로 안 만드셔도 됩니다. C:\faceswap\DataA\model\model1 -> 학습시에 생성되는 파일들이 저장됩니다. 학습 시작시에 자동적으로 생기므로 안 만드셔도 됩니다.
아래의 코드를 입력하여 실행되는지 확인하시기 바랍니다. 여기서 dlib 관련 에러가 발생하면 설치과정 중에 실수를 했을 수도 있습니다. cd /d “C:\faceswap” && python faceswap.py -h faceswap 폴더 안에 “DataA”와 “DataB”라는 두가지의 폴더를 만듭니다:
다음과 같은 추가적인 폴더를 만듭니다: C:\faceswap\DataA\actress1 -> 모델 영상 프레임/이미지 C:\faceswap\DataA\actress1\extracted -> 모델 영상 프레임/이미지에서 추출된 얼굴 C:\faceswap\DataB\idol1 -> 아이돌 영상 프레임/이미지 C:\faceswap\DataB\idol1\extracted -> 아이돌 영상 프레임/이미지에서 추출된 얼굴 C:\faceswap\DataA\model -> 학습시에 생성되는 파일들이 저장됩니다. 학습 시작시에 자동적으로 생기므로 안 만드셔도 됩니다. C:\faceswap\DataA\model\model1 -> 학습시에 생성되는 파일들이 저장됩니다. 학습 시작시에 자동적으로 생기므로 안 만드셔도 됩니다.
3. 파이썬: 추출 – (DataB) 아이돌 얼굴셋 만들기
Expand 얼굴셋을 준비하기 위한 과정입니다. 얼굴셋이란? 256×256 이미지 크기의 아이돌 얼굴 모음집 몇개의 이미지가 한 셋에 포함되어야 할까? 효과적이고 빠른 학습을 위해서는 300~1000개 사이가 좋습니다 이미지의 품질은 어때야 될까? 얼굴이 명확해 보이는 빛 밝기, 흐림이 없고, 다른 물체(머리카락,병,마이크 등)가 얼굴을 가리지 않은 이미지가 좋습니다. 그리고 최대한 다양한 각도(위,아래,옆)와 표정이 있는 얼굴이 있는 것이 좋습니다. 특히 고개를 위로 들거나 아래로 숙인 얼굴은 찾기 어려우므로 고생하실 수도 있습니다 그래서 얼굴셋을 만드는 방법은? 가장 쉬운 방법은 다른 유저들이 만든 얼굴셋을 사용하는 겁니다. 다운받은 얼굴들을 (C:\faceswap\DataB\idol1\extracted)와 같은 경로로 복붙합니다.또는! 본인이 직접 만드시고 싶다면 faceswap을 이용하여 얼굴을 추출하여야 합니다. 목표 아이돌의 이미지를 구글 검색, pinterest 등에서 얻어서 C:\faceswap\DataB\idol1로 복붙합니다 가장 좋은 방법은 영상에서 얼굴을 얻는 것이며 이를 인터뷰, 직캠, 뮤비 등에서 얻을 수 있습니다. 영상들을 모두 C:\faceswap\DataB\idol1로 이동시킵니다 CMD를 실행시키고 아래와 같은 명령어를 입력하여 ffmpeg가 영상으로부터 프레임(이미지)을 추출할 수 있도록 합니다: cd /d “C:\faceswap\DataB\idol1” && ffmpeg -i 파일이름.mp4 -vf fps=2 clip%05d.png 파일이름.mp4는 영상 파일 이름에 맞게 수정합니다. fps는 영상에서 추출되는 속도를 의미하며 작을 수록 더 느리게(더 적은량의 이미지)를 뽑습니다. 저는 개인적으로 fps=2을 사용합니다. 영상이 너무 짧으면 더 큰 숫자를 사용해도 되나.. 너무 과대한 숫자는 삼가시기 바랍니다.
영상에서 추출을 끝내고 결과물을 확인하여 너무 흐리거나/이상하거나/비슷한 장면들은 지우시는 걸 추천드립니다. 이들은 있어도 학습만 지연시킬 뿐 아무런 의미가 없습니다. 모든 이미지/프레임들이 idol1 폴더에 위치해 있다면 이들에서 얼굴을 추출하기 위해 아래와 같은 명령어를 입력합니다: cd /d c:\faceswap && python faceswap.py extract -i DataB\idol1 -o DataB\idol1\extracted -D mtcnn -r 45 -ae 이 과정이 끝나셨으면 다음과 같은 (C:\faceswap\DataB\idol1\extracted) 경로에 결과가 있을 것입니다.
또 한번 흐리거나/이상하거나/비슷한 얼굴들을 지우시는 걸 추천드립니다.
얼굴셋을 준비하기 위한 과정입니다. 얼굴셋이란? 256×256 이미지 크기의 아이돌 얼굴 모음집 몇개의 이미지가 한 셋에 포함되어야 할까? 효과적이고 빠른 학습을 위해서는 300~1000개 사이가 좋습니다 이미지의 품질은 어때야 될까? 얼굴이 명확해 보이는 빛 밝기, 흐림이 없고, 다른 물체(머리카락,병,마이크 등)가 얼굴을 가리지 않은 이미지가 좋습니다. 그리고 최대한 다양한 각도(위,아래,옆)와 표정이 있는 얼굴이 있는 것이 좋습니다. 특히 고개를 위로 들거나 아래로 숙인 얼굴은 찾기 어려우므로 고생하실 수도 있습니다 그래서 얼굴셋을 만드는 방법은? 가장 쉬운 방법은 다른 유저들이 만든 얼굴셋을 사용하는 겁니다. 다운받은 얼굴들을 (C:\faceswap\DataB\idol1\extracted)와 같은 경로로 복붙합니다.또는! 본인이 직접 만드시고 싶다면 faceswap을 이용하여 얼굴을 추출하여야 합니다. 목표 아이돌의 이미지를 구글 검색, pinterest 등에서 얻어서 C:\faceswap\DataB\idol1로 복붙합니다 가장 좋은 방법은 영상에서 얼굴을 얻는 것이며 이를 인터뷰, 직캠, 뮤비 등에서 얻을 수 있습니다. 영상들을 모두 C:\faceswap\DataB\idol1로 이동시킵니다 CMD를 실행시키고 아래와 같은 명령어를 입력하여 ffmpeg가 영상으로부터 프레임(이미지)을 추출할 수 있도록 합니다: cd /d “C:\faceswap\DataB\idol1” && ffmpeg -i 파일이름.mp4 -vf fps=2 clip%05d.png 파일이름.mp4는 영상 파일 이름에 맞게 수정합니다. fps는 영상에서 추출되는 속도를 의미하며 작을 수록 더 느리게(더 적은량의 이미지)를 뽑습니다. 저는 개인적으로 fps=2을 사용합니다. 영상이 너무 짧으면 더 큰 숫자를 사용해도 되나.. 너무 과대한 숫자는 삼가시기 바랍니다.
영상에서 추출을 끝내고 결과물을 확인하여 너무 흐리거나/이상하거나/비슷한 장면들은 지우시는 걸 추천드립니다. 이들은 있어도 학습만 지연시킬 뿐 아무런 의미가 없습니다. 모든 이미지/프레임들이 idol1 폴더에 위치해 있다면 이들에서 얼굴을 추출하기 위해 아래와 같은 명령어를 입력합니다: cd /d c:\faceswap && python faceswap.py extract -i DataB\idol1 -o DataB\idol1\extracted -D mtcnn -r 45 -ae 이 과정이 끝나셨으면 다음과 같은 (C:\faceswap\DataB\idol1\extracted) 경로에 결과가 있을 것입니다.
또 한번 흐리거나/이상하거나/비슷한 얼굴들을 지우시는 걸 추천드립니다.
4. 파이썬: 추출 – (DataA) 모델 얼굴셋 만들기
Expand 딥페이크를 만들기 위해서는 아이돌의 얼굴셋 뿐만 아니라 아이돌의 얼굴로 변환시킬 모델의 얼굴도 필요합니다. 이는 아이돌의 얼굴셋 만드는 경우와 같습니다. 모델 영상에서 얼굴 추출: 영상을 (C:\faceswap\DataA\actress1) 의 경로에 위치시킵니다. cmd를 실행하고 아래의 명령어를 입력합니다: cd /d C:\faceswap\DataA\actress1 && ffmpeg -i “파일이름.mp4” -vf fps=[Source FPS] clip%05d.png && cd /d C:\faceswap && python faceswap.py extract -i C:\faceswap\DataA\actress1 -o C:\faceswap\DataA\actress1\extracted -D mtcnn -r 45 -ae 파일이름.mp4은 영상 파일 이름에 맞게 수정하시고 [Source FPS]는 영상의 fps에 맞게 입력합니다. 이 명령어는 &&로 구분된 여러개의 명령어를 동시에 실행시키는 것입니다. 먼저 ffmpeg를 이용하여 영상으로 부터 프레임을 뽑고 -> 파이썬을 이용하여 출력된 프레임으로 부터 얼굴을 추출합니다.
(C:\faceswap\DataA\actress1\extracted) 경로의 폴더에 결과물이 추출될 것입니다.
추출된 결과물들을 확인하여 정말 얼굴들만 추출됐는지 확인하고 얼굴이 아닌 것이 발견될 경우 이를 지웁니다. 지우지 않으면 나중에 얼굴이 아닌 것을 얼굴로 변환시켜려는 만행을 저지르게 됩니다. 딥페이크를 만들기 위해서는 아이돌의 얼굴셋 뿐만 아니라 아이돌의 얼굴로 변환시킬 모델의 얼굴도 필요합니다. 이는 아이돌의 얼굴셋 만드는 경우와 같습니다. 모델 영상에서 얼굴 추출: 영상을 (C:\faceswap\DataA\actress1) 의 경로에 위치시킵니다. cmd를 실행하고 아래의 명령어를 입력합니다: cd /d C:\faceswap\DataA\actress1 && ffmpeg -i “파일이름.mp4” -vf fps=[Source FPS] clip%05d.png && cd /d C:\faceswap && python faceswap.py extract -i C:\faceswap\DataA\actress1 -o C:\faceswap\DataA\actress1\extracted -D mtcnn -r 45 -ae 파일이름.mp4은 영상 파일 이름에 맞게 수정하시고 [Source FPS]는 영상의 fps에 맞게 입력합니다. 이 명령어는 &&로 구분된 여러개의 명령어를 동시에 실행시키는 것입니다. 먼저 ffmpeg를 이용하여 영상으로 부터 프레임을 뽑고 -> 파이썬을 이용하여 출력된 프레임으로 부터 얼굴을 추출합니다.
(C:\faceswap\DataA\actress1\extracted) 경로의 폴더에 결과물이 추출될 것입니다.
추출된 결과물들을 확인하여 정말 얼굴들만 추출됐는지 확인하고 얼굴이 아닌 것이 발견될 경우 이를 지웁니다. 지우지 않으면 나중에 얼굴이 아닌 것을 얼굴로 변환시켜려는 만행을 저지르게 됩니다.
5. 파이썬: 학습
Expand DataA와 DataB 폴더가 준비되었으므로 이제부터 학습을 시작할 수 있습니다!
먼저 cmd를 실행시킨 다음 아래와 같은 명령어를 입력합니다: cd /d c:\faceswap && python faceswap.py train -A DataA\actress1\extracted -B DataB\idol1\extracted -m model\model1 -pl -p -t OriginalHighRes 특수/그외 케이스: GPU(그래픽카드)가 낮은 VRAM(메모리)를 갖고 있다면 학습 과정 중에 에러가 생길 수 있습니다. 에러가 만약 OOM (메모리 부족) 에러라면 배치 사이즈를 줄여서 실행해봅니다. 기본 배치 사이즈는 64이며, 바꾸고 싶을 경우 다음과 같은 명령어를 추가합니다: -bs 32
두 개의 GPU가 있으시다면, 아래와 같은 명령어를 입력함으로써 동시에 사용할 수 있습니다: cd /d c:\faceswap && python faceswap.py train -A DataA\actress1\extracted -B DataB\idol1\extracted -m model\model1 -pl -p -t OriginalHighRes -g 2 학습 실행에 성공하셨다면, cmd 창에는 A와 B의 loss(명확도)와 예상 학습 결과가 나타날 것입니다: 학습 중에는 PC를 가만히 놔두는 것이 좋습니다. 안그래도 많은 CPU와 GPU 사용량을 요구하는데 거기에 덤으로 다른 작업까지 하시면 에러가 발생할 확률이 높아집니다. 좋은 loss는 0.02~0.01 사이입니다. (저는 보통 0.019만 되면 멈춥니다) 원하시는 목표치에 도달하셨거나 중간에 멈추고 싶으시면 “training”이라는 제목을 가진 “예상 학습 결과 창”을 클릭한 상태에서 엔터를 누르면 됩니다. 그러면 학습 결과가 model의 형태로 저장이 되며, 이는 model이라고 지어준 폴더에 저장됩니다: DataA와 DataB 폴더가 준비되었으므로 이제부터 학습을 시작할 수 있습니다!
먼저 cmd를 실행시킨 다음 아래와 같은 명령어를 입력합니다: cd /d c:\faceswap && python faceswap.py train -A DataA\actress1\extracted -B DataB\idol1\extracted -m model\model1 -pl -p -t OriginalHighRes 특수/그외 케이스: GPU(그래픽카드)가 낮은 VRAM(메모리)를 갖고 있다면 학습 과정 중에 에러가 생길 수 있습니다. 에러가 만약 OOM (메모리 부족) 에러라면 배치 사이즈를 줄여서 실행해봅니다. 기본 배치 사이즈는 64이며, 바꾸고 싶을 경우 다음과 같은 명령어를 추가합니다: -bs 32
두 개의 GPU가 있으시다면, 아래와 같은 명령어를 입력함으로써 동시에 사용할 수 있습니다: cd /d c:\faceswap && python faceswap.py train -A DataA\actress1\extracted -B DataB\idol1\extracted -m model\model1 -pl -p -t OriginalHighRes -g 2 학습 실행에 성공하셨다면, cmd 창에는 A와 B의 loss(명확도)와 예상 학습 결과가 나타날 것입니다: 학습 중에는 PC를 가만히 놔두는 것이 좋습니다. 안그래도 많은 CPU와 GPU 사용량을 요구하는데 거기에 덤으로 다른 작업까지 하시면 에러가 발생할 확률이 높아집니다. 좋은 loss는 0.02~0.01 사이입니다. (저는 보통 0.019만 되면 멈춥니다) 원하시는 목표치에 도달하셨거나 중간에 멈추고 싶으시면 “training”이라는 제목을 가진 “예상 학습 결과 창”을 클릭한 상태에서 엔터를 누르면 됩니다. 그러면 학습 결과가 model의 형태로 저장이 되며, 이는 model이라고 지어준 폴더에 저장됩니다:
6. 파이썬: 변환
Expand The lazy method: in CMD, type in: cd /d c:\faceswap && python faceswap.py convert -i DataA\actress1 -o DataA\idol1 -a DataA\actress1\extracted -m model\model1 -t OriginalHiRes -D mtcnn -c Adjust -sm CMD를 켜시고 다음과 같은 명령어를 입력합니다. cd /d c:\faceswap && python faceswap.py convert -i DataA\actress1 -o DataA\idol1 -a DataA\actress1\extracted -m model\model1 -t OriginalHighRes -D mtcnn -b 10 -e 10 이는 변환의 가장 기본적인 명령어입니다.
여기에 옵션을 더 추가하시고 싶으시면 위치에 상관없이 옵션을 입력한 후 한번에 실행하시면 됩니다. (옵션을 따로따로 입력하시면 안됩니다)
추가할 수 있는 옵션은 다음과 같습니다: -S 경계선을 보이지 않게 하기 위해서는 가장 좋은 방법이나 일그러지는 현상이 자주 발생하여 추천드리지 않습니다 -b [양수] 얼굴을 덮는 범위를 흐리게 합니다 (경계선 쪽이 가장 많은 영향을 받으며, 안쪽으로 들어올수록 약해집니다) -e [양수 또는 음수] 얼굴을 덮는 범위를 줄입니다 -mh 색을 맞추는 기능을 갖고 있습니다. 그러나 가끔씩 어느 부분만 유독 밝게 빛나게 할 수 있습니다 -sh [bsharpen] or –sh [gsharpen] 날카롭게 (명확하게) 합니다. Bsharpen 은 너무 강해서 왠만해선 추천드리지 않습니다 제가 가장 자주 사용하는 명령어는 다음과 같습니다: cd /d c:\faceswap && python faceswap.py convert -i DataA\actress1 -o DataA\idol1 -a DataA\actress1\extracted -m model\model1 -t OriginalHighRes -D mtcnn -b 10 -e 10 -sh gsharpen 여기서 부터 저는 두 숫자를 5단위로 증가/감소 시키며 실험합니다. 색이 너무 안 맞을 경우 -mh를 추가합니다.
하지만 이 코드가 가장 이상적인 코드는 아님을 명심해야 합니다. 이는 제가 주관적 판단으로 정한 코드이며, 여러분들은 계속적인 실험을 통하여 영상/모델에 맞게 코들 바꿔나가시기 바랍니다.
변환이 끝나셨다면 지정하신 출력 폴더(이 경우 idol1 폴더)에 결과가 있을 것입니다. 결과에 만족하지 못하셨다면 명령어를 수정하여 다시 실행하시기 바랍니다. 출력된 프레임(결과물)들을 합치기 위해서는 cmd를 켜시고 다음과 같이 입력합니다: cd /d C:\faceswap\DataA\idol1 이는 프레임이 있는 폴더로 이동시키기 위한 명령어입니다. 이제 다음과 같이 입력합니다: ffmpeg -r fps -f image2 -s 이미지크기 -i clip%05d.png -vcodec libx264 -crf 18 -pix_fmt yuv420p out.mp4 fps는 원래 영상의 fps를 의미하며 이는 본인이 확인한 후 수정하여 입력하시면 됩니다. 예) -r 30
이미지 크기는 띄어쓰기 없이 “1280×720″으로 쓰시면 됩니다. 예) -s 1280×720 The lazy method: in CMD, type in: cd /d c:\faceswap && python faceswap.py convert -i DataA\actress1 -o DataA\idol1 -a DataA\actress1\extracted -m model\model1 -t OriginalHiRes -D mtcnn -c Adjust -sm CMD를 켜시고 다음과 같은 명령어를 입력합니다. cd /d c:\faceswap && python faceswap.py convert -i DataA\actress1 -o DataA\idol1 -a DataA\actress1\extracted -m model\model1 -t OriginalHighRes -D mtcnn -b 10 -e 10 이는 변환의 가장 기본적인 명령어입니다.
여기에 옵션을 더 추가하시고 싶으시면 위치에 상관없이 옵션을 입력한 후 한번에 실행하시면 됩니다. (옵션을 따로따로 입력하시면 안됩니다)
추가할 수 있는 옵션은 다음과 같습니다: -S 경계선을 보이지 않게 하기 위해서는 가장 좋은 방법이나 일그러지는 현상이 자주 발생하여 추천드리지 않습니다 -b [양수] 얼굴을 덮는 범위를 흐리게 합니다 (경계선 쪽이 가장 많은 영향을 받으며, 안쪽으로 들어올수록 약해집니다) -e [양수 또는 음수] 얼굴을 덮는 범위를 줄입니다 -mh 색을 맞추는 기능을 갖고 있습니다. 그러나 가끔씩 어느 부분만 유독 밝게 빛나게 할 수 있습니다 -sh [bsharpen] or –sh [gsharpen] 날카롭게 (명확하게) 합니다. Bsharpen 은 너무 강해서 왠만해선 추천드리지 않습니다 제가 가장 자주 사용하는 명령어는 다음과 같습니다: cd /d c:\faceswap && python faceswap.py convert -i DataA\actress1 -o DataA\idol1 -a DataA\actress1\extracted -m model\model1 -t OriginalHighRes -D mtcnn -b 10 -e 10 -sh gsharpen 여기서 부터 저는 두 숫자를 5단위로 증가/감소 시키며 실험합니다. 색이 너무 안 맞을 경우 -mh를 추가합니다.
하지만 이 코드가 가장 이상적인 코드는 아님을 명심해야 합니다. 이는 제가 주관적 판단으로 정한 코드이며, 여러분들은 계속적인 실험을 통하여 영상/모델에 맞게 코들 바꿔나가시기 바랍니다.
변환이 끝나셨다면 지정하신 출력 폴더(이 경우 idol1 폴더)에 결과가 있을 것입니다. 결과에 만족하지 못하셨다면 명령어를 수정하여 다시 실행하시기 바랍니다. 출력된 프레임(결과물)들을 합치기 위해서는 cmd를 켜시고 다음과 같이 입력합니다: cd /d C:\faceswap\DataA\idol1 이는 프레임이 있는 폴더로 이동시키기 위한 명령어입니다. 이제 다음과 같이 입력합니다: ffmpeg -r fps -f image2 -s 이미지크기 -i clip%05d.png -vcodec libx264 -crf 18 -pix_fmt yuv420p out.mp4 fps는 원래 영상의 fps를 의미하며 이는 본인이 확인한 후 수정하여 입력하시면 됩니다. 예) -r 30
이미지 크기는 띄어쓰기 없이 “1280×720″으로 쓰시면 됩니다. 예) -s 1280×720
Congratulations!
You’ve just created your first Deepfake.
If you want to start becoming a creator on our site, please send your finished videos to an admin on our Discord server for assessment.
Please include our unique Intro at the beginning and the Logo inside of the video as well!
Disclaimer: You are in full responsibility of the content you create. We at DFKP offer this tutorial for educational purposes, do this on your own risk.We’re not responsible for any kind of damages to your system or malicious content that you create.
Questions? Comments?
Go over to our forums if you have any questions or comments
[Deep Fake Tutorial] 나만의 딥페이크(Deep fake) 만들기(수지를 아이유로?)
DFL(DeepFaceLab)실행 환경 설정
DFL은 중국에서 개발 및 배포된 소스로, 소스 영상에서 얼굴을 추출하여 타겟 영상에 합성, 손쉽게 Deep fake를 만들 수 있음
출처 : DeepFaceLab
DFL 가상환경 만들기
conda create -y -n deepfacelab python=3.6.6 cudatoolkit=9.0 cudnn=7.3.1 conda activate deepfacelab
clone DFL
git clone https://github.com/dream80/DeepFaceLab_Linux.git
Requirement 설치
cd DeepFaceLab_Linux python -m pip install -r requirements-cuda.txt
ffmpeg 설치(conda)
conda install ffmpeg==4.0.2 conda insatll ffmpeg
Tensor version 맞추기(CUDA 10.0 기준)
conda install tensorflow-gpu==1.13.1 # 이때 cudatoolkit, cudnn 등 설치 됨 conda install tensorflow==1.13.1 conda install tensorboard==1.13.1
workspace에 영상 넣기
영상은 자유롭게 넣되, 아래와 같이 naming
합성하고 싶은 얼굴이 든 영상은 : data_src. mp4
합성 대상 영상 : data_dst.mp4
$ scp -P 16022 ./data_src.mp4 {개인서버 개정}@{서버주소}:{DeepFaceLab 경로}/DeepFaceLab_Linux/workspace/ $ scp -P 16022 ./data_dst.mp4 {개인서버 개정}@{서버주소}:{DeepFaceLab 경로}/DeepFaceLab_Linux/workspace/
본 예시에서는 수지 광고 영상에 아이유의 얼굴을 합성할 것임
이 아이유를 요 수지로 합성
DFL 실행
1. env 실행
DeepFaceLab_Linux/script/env.sh
export DFL_CUDA=”CUDA_VISIBLE_DEVICES=1″ export DFL_PYTHON=”python3.6″ export DFL_WORKSPACE=”../workspace” if [ ! -d “$DFL_WORKSPACE” ]; then mkdir “$DFL_WORKSPACE” mkdir “$DFL_WORKSPACE/data_src” mkdir “$DFL_WORKSPACE/data_src/aligned” mkdir “$DFL_WORKSPACE/data_src/aligned_debug” mkdir “$DFL_WORKSPACE/data_dst” mkdir “$DFL_WORKSPACE/data_dst/aligned” mkdir “$DFL_WORKSPACE/data_dst/aligned_debug” mkdir “$DFL_WORKSPACE/model” fi export DFL_SRC=”../”
2. data_src 프레임 추출
$ ./2_extract_PNG_from_video_data_src.sh
3. data_dst 프레임 추출
$ ./3_extract_PNG_from_video_data_dst.sh
3-1. data_dst denoise(optional)
$ ./3_other_denoise_extracted_data_dst.sh
4. data_src 프레임에서 face 추출
face 추출의 경우 S3FD, MT 등 option이 있으나 S3FD권장
이 작업은 환경이 CPU일 때 매우 느리게 작동함
$ ./4_data_src_extract_faces_S3FD_best_GPU.sh
이렇게 프레임에서 얼굴만 잘라줌
4.1. face를 유사 히스토그램으로 정렬
similar_histogram : 이 옵션은 추출된 face를 유사 히스토그램으로 정렬 해준다
소스 영상에 원하는 사람의 얼굴(아이유)이 아닌 타인의 얼굴이 있을 때 제거가 용이하다
$ ./4.2.2_data_src_sort_by_similar_histogram.sh
4.1. face를 final option으로 정렬
final : 권장되는 정렬로, 소스로 활용하기 좋지 않은 프레임을 버리고, 필요한 프레임(yaw 기준으로 다양하게)만 남겨준다
$ ./4.2.6_data_src_sort_by_final.sh
5. data_dst 프레임에서 face 추출
$ ./5_data_dst_extract_faces_S3FD_best_GPU.sh
6. model train
model도 여러가지가 있는데, blending 할 때 option이 다양한 SAE로 실행
학습이 정상적으로 실행되면 아래와 같은 미리보기 이미지가 workspace/model에 저장됨
$ ./6_train_SAE.sh
iter : 100 iter : 20,000
7. Convert
$ ./7_convert_{사용한 모델명}.sh
아래와 같이 merged된 프레임을 workspace/data_dst/merged 경로에 얻을 수 있다.
convert를 진행하다보면 많은 option이 있는데, 이를 어떻게 조정하느냐에 따라 영상의 자연스러움이 다르다
converting option을 기본 값으로 준 것 조금 더 자연스럽도록 option을 수정한 것 원본 이미지(좌)와 합성된 이미지(우)
위 예시에서 알 수 있듯 완벽히 합성되지 않는 frame 들이 있다(사실상 자연스러운 부분이 더 적음)
턱의 검은 건 왜 생긴지 알 수가 없고, 미표한 표정의 변화까지 완벽히 합성되지는 않는 모양
8. mp4 영상으로 추출
추출된 영상은 /workspace 안에 result.mp4 로 저장된다.
$ ./8_converted_to_mp4.sh
합성된 딥페이크 영상
9. review
GPU 환경에서 train에 약 16시간 정도 소요, 가치가 있나..(ㅎㅎ)
Youtube 등에서 훨씬 자연스럽게 합성된 deep fake 들에 비해 뭐가 부족한걸까?
합성된 영상은 퀄리티를 더 높이려면 어떤 시도를 할 수 있을지?
특정 헤어스타일이 어울릴지에 대한 의사결정에 좋을 것 같다(?)
728×90
구글, 코렙(Colab)에서 딥페이크 생성 AI 금지
구글 코렙에서 딥페이스랩용 딥페이크 코드를 실행을 금지하는 새로운 경고 메시지를 확인할 수 있다.(사진=구글)
구글이 코렙(Colab, Colaboratory) 플랫폼에서 딥페이크를 생성하는 데 사용할 수 있는 AI 시스템의 학습을 금지했다. 구글은 코렙 사용자를 위한 서비스 약관을 변경해 이 서비스를 더 이상 딥페이크 훈련에 사용할 수 없다는 조항을 추가했다.
코렙은 누구나 웹 브라우저를 통해 임의의 파이썬(Python) 코드, 특히 기계 학습 및 데이터 분석을 위한 코드를 작성하고 실행하는 동시에 모든 사용자에게 GPU 및 구글의 AI 가속 텐서 처리 장치(TPU)를 포함한 하드웨어에 대한 무료 액세스를 제공하는 온라인 컴퓨팅 리소스다.
최근 몇 년 동안 코렙은 AI 연구 커뮤니티 내에서 데모를 위한 사실상의 플랫폼이 되었다. 코드를 호스팅하는 깃허브(GitHub) 리포지토리(저장소)와 함께 코렙 페이지에 대한 링크를 포함하는 코드를 작성하는 것은 이제 드문 일이 아니다.
오픈 소스 딥페이크 생성기 딥페이스랩(DeepFaceLab) 사용자는 코렙에서 딥페이스랩을 실행하려고 시도하면 ‘허용되지 않는 코드를 실행하고 있을 수 있으며 이로 인해 향후 코렙을 사용하는 데 제한이 있을 수 있다. FAQ에 명시된 금지된 행동에 유의하라’와 같은 경고 메시지를 수신하게 된다.
그러나 다른 딥페이크 배포판인 페이스스왑(FaceSwap) 사용자는 현재 경고 없이 코드를 문제없이 실행할 수 있다고 한다. 이는 시행이 키워드가 아니라 블랙리스트에 기반하며 새 규칙에 위배되는 코드를 보고할 책임은 코렙 커뮤니티에 있음을 나타낸다.
기술매체 테크크런치(TechCrunch)에 따르면 구글은 자사의 AI 원칙에 위배되는 코렙의 남용 경로를 정기적으로 모니터링하는 동시에 사용자가 TPU 및 GPU와 같은 리소스에 액세스할 수 있도록 노력한다.
한편 변경된 약관에는 서비스 거부 공격(DoS) 실행, 암호화폐 채굴, 비밀번호 크래킹 및 토렌트 다운로드와 같은 이전 제한사항은 변경없이 유지된다.
구글은 코렙 사용자를 위한 서비스 약관을 변경해 코렙 서비스를 더 이상 딥페이크 훈련에 사용할 수 없다는 조항을 추가했다.(사진=구글)
딥페이크는 자동 인코더 또는 생성적 적대 네트워크(GAN)와 같은 생성 신경망 아키텍처를 사용해 시각 및 오디오 콘텐츠를 조작하거나 생성한다. 딥페이크는 다양한 형태가 있지만 가장 일반적인 것 중 하나는 사람의 얼굴을 다른 얼굴 위에 확실하게 붙여넣은 동영상이다. 과거의 조잡한 포토샵 작업과 달리 AI가 생성한 딥페이크는 경우에 따라 할리우드에서 제작한 CGI보다 사람의 신체 움직임, 미세 표정 및 피부 색조와 더 잘 일치할 수 있다.
딥페이크는 무해할 수 있으며 심지어 재미있을 수도 있다. 그러나 해커가 갈취 및 사기 수법으로 소셜 미디어 사용자를 표적으로 삼는 데 점점 더 많이 사용되고 있다. 또 정치적 선전에 활용되기도 한다. 예를 들어 블라디미르 젤렌스키 우크라이나 대통령이 실제로는 하지 않은 우크라이나 전쟁 관련 연설이 담긴 가짜 비디오가 나오기도 했다.
볼로디미르 젤렌스키 우크라이나 대통령이 연설하는 것처럼 만들어진 가짜 비디오(사진=트위터)
온라인 딥페이크의 수는 2019년부터 2021년까지 약 14,000개에서 145,000개로 증가했다. 포레스터 리서치(Forrester Research)는 2019년 10월에 딥페이크 사기로 인한 비용이 2020년 말까지 2억 5천만 달러에 이르는 것으로 추정했다.
독일 자를란트(Saarland) 대학의 컴퓨터 언어학자인 바그란트 가우탐(Vagrant Gautam)은 “불행히도 우리는 기계 학습 및 AI와 관련하여 업계 전반에 걸쳐 일관된 윤리적 관행을 갖고 있지 않지만 구글이 딥페이크에 대한 액세스 및 생성 능력을 규제하는 일련의 자체 규칙을 제시하는 것이 합리적이다”라고 말했다.
시애틀 대학의 겸임 교수인 오스 키예스(Os Keyes)는 구글이 코렙의 딥페이크 프로젝트를 금지하려는 움직임을 환영하면서도 생성과 확산을 방지하기 위해 정책적인 측면에서 더 많은 조치가 취해져야 한다고 지적하기도 했다.
그러나 코렙에 대해 자유방임적인 접근 방식으로 혜택을 본 사람들은 이에 동의하지 않을 수 있다. 또한 그러한 프로젝트를 금지한다고 해서 누군가가 프로젝트를 개발하는 것을 막을 수는 없으며 가장 필요한 시기에 딥페이크에 대응하기 위한 도구를 구축하려는 노력을 방해할 수도 있다.
몇 년 전 AI 연구실인 오픈AI(OpenAI)는 처음에 언어 생성 모델인 GPT-2가 오용될 것을 우려해 오픈소스화를 거부했다. 이는 일루서AI(EleutherAI)와 같은 그룹이 코렙을 포함한 도구를 활용해 자체 언어 생성 모델을 개발하고 출시하도록 동기를 부여했다. 일루서AI의 회원인 코너 리히(Conner Leahy)는 “AI 모델과 도구는 ‘자원이 부족한’ 사용자, 특히 학계가 더 나은 연구 수행할 수 있도록 널리 사용 가능해야 한다”고 강조했다.
구글은 “딥페이크는 구글의 AI 원칙에 위배될 가능성이 크다. 우리는 악성 딥페이크 패턴과 양성 패턴을 탐지하고 저지할 수 있기를 열망하며 우리의 방법이 발전함에 따라 정책을 변경할 것이다”라고 설명했다.
AI타임스 박찬 위원 [email protected]
[관련기사]“다 걸렸어”…99% 딥페이크 탐지하는 AI 기술 [관련기사]AI가속 칩으로 딥페이크 식별도 가능…이전보다 6배 빨라
Deepfake Tutorial – 자신만의 딥페이크를 만들어 보자 (0부터 100까지)
먼저 본 글을 통해서 악의적이나 불법적으로 이용할 경우, 어떠한 책임도 지지 않음을 알려드립니다.
본 글을 쓴 목적은, 예전부터 흥미를 가졌던 FaceSwap과 VoiceSwap 두개중 먼저 FaceSwap(얼굴 교체)에 대해 포스팅을 해보려고 합니다.
먼저 필자의 환경은 다음과 같습니다.
OS Windows 11 x64 CPU AMD Ryzen 3700X 8-Core Processor RAM 32GB VGA NVIDIA GeForce GTX 1660 SUPER
먼저 FaceSwap 즉, Deepfake를 구현하기 위해서는 VGA와 CPU의 성능이 좋아야합니다.
딥페이크를 구현하기 이전, CUDA와 tensorflow를 설치해보도록 하겠습니다.
먼저 CUDA를 설치해줍니다.
https://developer.nvidia.com/cuda-11-4-3-download-archive?target_os=Windows&target_arch=x86_64&target_version=11&target_type=exe_local
11.5 버전의 CUDA ToolKit 을 사용하지 않은 이유는 11.5 버전으로 진행한 결과, Tensorflow에서 오류가 생겨, 11.4버전으로 다운그레이드 후 구현을 진행했습니다. 다운 받은 후 설치파일을 실행 시켜줍니다.
그림 1 CUDA Install 그림 2 NVIDIA CUDA Install
CUDA 11.4 버전을 설치가 완료 되면, 환경변수가 제대로 설정되었는지 확인해야합니다.
기본적으로 CUDA를 설치한다면, 환경변수가 설정되어 있지만, Path 경로에 많은 경로가 존재하면, CUDA 환경변수가 추가되지 않을 수 도 있습니다.
물론 11.4 버전을 사용하지 않고, 다른 버전을 사용한다면, 환경 변수와 시스템 변수에 다른 버전이 들어 있을 수도 있습니다.
그림 3 시스템 변수 중 CUDA_PATH 그림 4 시스템 변수 중 CUDA_PATH_V11_4 그림 5 환경 변수 확인
2개의 시스템 변수와 2개의 환경변수가 정상적으로 등록이 되어 있다면, 그 다음 단계로 넘어가면됩니다.
https://developer.nvidia.com/rdp/cudnn-archive
cudnn-archibe 를 통해서 CUDA Tool Kit 을 업데이트(?) 시켜줍니다.
그림 6 cuDNN Archive
cuDNN Archive에서 본인의 CUDA 버전과 맞는 cuDNN 파일을 다운 받아 줍니다.
다운 후 압축을 풀면 다음과 같이 폴더 3개를 확인 할 수 있습니다.
그림 7 Download cuDNN for CUDA
해당 폴더 3개를 다음 위치로 복사해 줍니다.
C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v11.4
그림 8 cuDNN Copy to CUDA Tool Kit
이렇게 CUDA Tool Kit 과 cuDNN 작업을 마쳤다면, CUDA 설치는 완료 되었습니다.
이제 tensorflow를 설치하겠습니다. CMD 또는 다른 쉘을 통해서 다음과 같이 입력합니다.
pip install tensorflow
다음과 같이 pip를 통해서 tensorflow 를 설치하게 된다면 (미리 CUDA 를 설치한 경우) 자동으로 CUDA 버전에 따라, tensorflow 버전을 잡아서 설치해줍니다.
다음과 같이 입력하면 tensorflow 버전을 확인 할 수 있습니다.
pip freeze
그림 9 pip freeze 를 통한 tensorflow 버전 확인
이제, 모든 준비는 끝났습니다. 이제 본격적으로 시작하도록 하겠습니다.
https://faceswap.dev/download/ 를 통해서 faceswap 파일을 다운받아줍니다.
그림 10 faceswap 프로그램 다운로드
설치 과정은 기본적으로 할 줄 아시니, 이 포스팅을 보고 있을거라 생각해 생략하겠습니다.
faceswap의 파일은 다음과 같은 경로에 존재합니다.
C:\Users\[사용자명]\faceswap
cmd 또는 쉘을 통해서 다음과 같이 입력합니다.
그림 11 pip install -r
faceswap 에 필요한 외부 모듈들을 다운 받기 위해서 pip install -r 을 통해서 진행합니다.
requirements 에는 총 3가지 버전이 존재합니다. CPU, AMD, Nvidia 가 존재하는데, 사용자의 환경에 따라 설치를 진행해 주시면 됩니다. 설치를 완료하고 faceswap_win_launcher.bat 파일을 실행하면 다음과 같은 화면을 발견 할 수 있습니다.
그림 12 faceswap 메인 화면
먼저 Extract, train, Convert, Tools 총 4개의 메뉴를 확인 할 수 있습니다.
Extract의 경우 얼굴 데이터 셋의 추출, Train은 얼굴 학습, Convert는 동영상에 얼굴 Swap 기능을 담당하고 있습니다.
먼저 대상 얼굴이 있는 동영상을 src라 부르고, 합성을 할 동영상을 dst라고 칭하겠습니다.
대상 얼굴이 있는 동영상(src)을 Extract – Data – input dir에 탑재합니다. 동영상의 경우 알아서 준비하길 바랍니다.
그림 13 파일 준비
필자의 경우, 미리 파일 명에 src와 dst를 통해서, 대상 얼굴이 있는 동영상과, 합성을 할 동영상을 구분했습니다.
그림 14 faceswap에 동영상 탑재
Input Dir 에는 대상 동영상을 탑재, Output Dir 에는 데이터가 담길 폴더를 지정합니다. 그후 Detector에서는 Cv2-Dnn, Aligner에서도 Cv2-Dnn 을 선택합니다. 따로 설명은 하지 않겠습니다. 경로 설정을 완료 했다면, Extract 버튼을 눌러 추출을 진행합니다.
그림 15 Extract 버튼 그림 16 Extract 과정
Extract 버튼을 누르게 되면, Preview에서 얼굴이 추출되는 것을 확인 할 수 있고, 우측 하단에 남은 게이지를 확인 할 수있습니다.
추출이 완료되면, dst 즉 합성을 할 동영상도 동일하게 지정해서 추출을 진행합니다.
그림 17 총 파일 개수
data_dst와 data_src 폴더에는 총 2450파일이 존재하는것을 확인했고, 얼굴이 인식되지 않았거나, 다른 얼굴이 인식된 경우를 삭제해줘야 하기에, 사진 분류 작업을 진행합니다.
그림 18 불필요한 사진 및 인식되지 않은 얼굴 삭제
위 그림 18과 같이 불필요하거나, 다른 얼굴이 인식된 사진을 모두 삭제합니다. src와 dst 둘다 동일하게 삭제합니다.
그후 학습 과정을 시작합니다. Train 탭으로 들어가 다음과 같이 세팅합니다.
그림 19 Train 탭
Input A에는 합성 할 대상 얼굴 데이터 폴더 , Input B에는 합성을 시킬 얼굴 데이터 폴더를 각각 지정해주고, Model Dir에는 합성 데이터가 들어갈 경로를 지정해줍니다. 그후 Train 버튼을 누르면 학습이 진행됩니다.
필자의 경우 미리 학습을 진행시키고 있었어서, Preview와 Graph 값이 다르게 나옴을 알려드립니다.
그림 20 Train 과정
위 그림 20과 같이 학습 진행 현황을 확인 할 수 있으며, Graph 탭으로 넘어가면 다음과 같은 화면을 확인 할 수 있습니다.
그림 21 Train – Graph
위 그래프를 간단히 설명하자면 Iterations는 학습한 데이터 수, Loss 는 정확도 라고 생각하시면 됩니다.
Loss 값이 0에 수렴 할 수록, 합성이 원할하게 진행될 것이고, Loss 값이 크다면, 합성이 정상적으로 진행되지 않을 수 있습니다.
어느정도 학습을 진행했다면, 합성 과정을 진행합니다.
Stop 을 누르면 학습을 멈추고, 다시 Train을 할 수도 있습니다. 합성이 원할하게 되지 않았다면 다시 Train을 해서 학습을 시키는 것을 추천드립니다.
다음은 합성과정입니다. Convert 탭으로 들어갑니다.
그림 22 Convert 탭
Input Dir 에는 합성할 영상, 즉 dst파일을 선택하고, Ouput Dir에는 합성이 완료된 동영상이 저장될 폴더를 지정합니다.
Alignments의 경우 Extract 과정시 자동으로 생성되는 파일으로, 해당 영상이 있는 폴더에 같이 존재합니다.
Model Dir에는 Train 에서 지정한 Model 폴더를 지정합니다.
모든 경로가 설정되었다면, Convert 버튼을 통해서 합성을 진행합니다.
그림 23 Convert 과정
합성이 완료된 파일을 확인해봅니다.
그림 24 합성 과정후 영상
아직 학습이 완료 되지 않아, 대상을 구분하기 어렵습니다. 학습을 최대한 많이 한 후 Convert 를 하게 된다면, 원하시는 작업물을 얻을수 있을겁니다.
대략 1시간 ~ 1일 까지 걸릴 수도 있습니다.
지금까지 긴 글을 읽어주셔서 감사합니다.
문의는 아래 댓글을 통해서 남겨주시면 감사하겠습니다.
2021-12-17 추가 분석 내용
그림 25 합성할 영상의 일부
아래 사진은 각각 Iterations가 25000 ~ 52000 학습을 진행한 일부 결과물이다.
그림 26 학습 진행 현황
아직은 학습량이 부족해, 대상이 정확히 인식되지 않는 점이 보인다. 조금더 학습을 진행 한 후 다시 추가적으로 포스팅 할 예정이다.
딥페이크, 얼굴 바꾸기: Faceswap 설치 및 사용법 (1)
반응형
1. Anaconda 아나콘다 설치
Faceswap은 파이썬을 기반으로 실행되기 때문에 파이썬을 설치해야 합니다.
라이브러리 설치와 설치 과정에서 오류를 최소화하기 위해 아나콘다를 이용해봅시다.
www.anaconda.com/products/individual
편의를 위해 PATH 체크를 해줍시다.
2. Faceswap 설치
https://faceswap.dev/download/
가급적, Windows 실행파일 (.exe)로 설치하는 것이 설치 과정에서 오류를 최소화를 할 수 있습니다.
GPU가 있다면 해당되는 외장그래픽에 체크를 해주고, 외장 그래픽이 없다면 “Setup for CPU”를 선택합니다.
(Faceswap은 많은 연산을 필요로 하기 때문에 시간을 절약하기 위해서는 외장 그래픽을 필요로 합니다.)
설치경로는 수정하지 않는 경우에 C:\Users\사용자\faceswap 에 설치됩니다.
위의 경로에서 터미널에
python faceswap.py gui
로 faceswap을 실행하거나 바탕화면에 설치되는 바로가기를 통해 실행 가능합니다.
3. Troubleshooting 실행 오류에 관하여
실행오류가 발생한 경우, 우선
pip install plaidml==0.6.4
plaidml 라이브러리를 설치해줍니다. plaidml은 GPU를 활용할 수 있게 하는 딥러닝 프레임워크입니다.
(plaidml 버전이 최신일 경우, 혹은 버전이 0.6.4가 아닐 경우 실행되지 않을 수 있습니다.)
설치가 완료되면
plaidml-setup
를 입력하여 설정을 마쳐줍니다.
Enable experimental device support? (y,n)[n] : y
Default device? (1,2,3,4)[1]: 1
=> 본인이 가지고 있는 GPU를 선택해줍니다.
Save settings to C:Users\사용자\.plaidml? (y,n)[y]: y
이후
setx KERAS_BACKEND plaidml.keras.backend
를 입력합니다.
추가적으로 실행에 필요한 라이브러리를 설치해줍니다.
설치 목록은 앞서, C:\Users\사용자\faceswap 경로에
_requirements_base.txt
requirements_amd.txt
requirements_cpu.txt
requirements_nvidia.txt
를 참고해주시고, 간단히
pip install -r requirements_amd.txt
pip install -r requirements_cpu.txt
pip install -r requirements_nvidia.txt
본인 컴퓨터에 해당되는 GPU에 따라 3개 중 하나를 선택하여 간편하게 필요한 라이브러리를 설치할 수 있습니다.
사용법은 다음 글에서 설명하겠습니다.
sjblog1.tistory.com/34
악의적 목적으로 사용할 경우 법적 제제를 받을 수 있습니다.
반응형
[코드학습후기] 딥페이크 코드 실행 후기 _ Deepfacelab_01
2021.03.23 – [Paper Review] – [Survey] DeepFakes and Beyond: A Survey of Face Manipulation and Fake Detection 정리 및 요약 – 1 Intro
이 글을 쓰면서 읽게 된 deepfacelab 이라는 논문의 코드를 돌려보면서 작성하는 정리글 및 후기.
# deepfacelab 실행 # 딥페이스랩 실행 # 딥페이크 코드 실행 # 딥페이스랩 사용법
이 글의 베이스가 되는 사이트 : github.com/nagadit/DeepFaceLab_Linux
위 사이트는 deepfacelab 공식 깃헙 주소에서 제공하는 Linux를 위한 deepfacelab의 튜토리얼이다.
본 글은 위 사이트를 참고하여 실제로 코드를 실행해보면서 생겼던 에러 및 실행 과정을 정리하고,
실행 결과를 정리하는 목적의 글이다.
prelude)
출처 : github 주소의 2번 안내문.
1,2번 가이드는 리눅스 환경의 설치 등이고 본격적인 설치는 3번 부터 시작인데,
위의 글처럼 deepfacelab을 리눅스에서 돌려볼 생각을 한다는 것은
linux 세팅은 되어 있을 것이라고 생각하고 3번부터 정리해보도록 하겠다.
3. Install DeepFaceLab
출처 : github
conda create -n deepfacelab -c main python=3.7 cudnn=7.6.5 cudatoolkit=10.1.243
conda activate deepfacelab
git clone –depth 1 https://github.com/nagadit/DeepFaceLab_Linux.git
cd DeepFaceLab_Linux
git clone –depth 1 https://github.com/iperov/DeepFaceLab.git
python -m pip install -r ./DeepFaceLab/requirements-cuda.txt
순서대로 CLI에 커맨드를 쳐준다.
-> 그럼 편리하게 설치완료 ! 가 되어하지만 역시나 한방에 되는 법은 없다.
아래 사진과 같이
Cannot install -r ./DeepFaceLab/requirements-cuda.txt and h5py==2.9.0 because these package versions have conflicting dependencies.
라고 모듈 라이브러리 충돌 에러가 나서 해당에러 같은 경우(h5py==2.9.0)는 따로 pip install h5py==2.9.0로 설치 해준다. 보통 conda install로 나는 에러는 pip install로, 혹은 반대로 설치해주면 해결된다. 아직 둘 중에 뭐가 더 나은지는 모르겠고 사람마다 의견이 갈리는 듯하다.
4. Download Pretrain (Optional)
설치완료된 DeepFacelab/scripts를 열어보면 각각 CelebA / FFHQ/ Quick96 에 대한 pretrain model을 얻을 수 있는 bash 파일이 있다. 이를
cd scripts
bash (원하는 모델의 bash파일명)
으로 실행해서 내부에 있는 코드를 통해 설치한다.
사용자 home은 가렸습니다.
5. Navigate to the scripts directory and begin using DeepFaceLab_Linux ᗡ:
여기부터가 약간 불친절한 부분인데 순서대로 정리해보면
./deepfacelab/scripts
./DeepFaceLab/Scripts에 설치되어 있는 sh 파일들을 순서대로 실행하면서 학습한다.
1-4까지가 세팅 및 데이터 추출
5-8이 전처리 및 학습과정을 담고 있다.
일단 4.1 bash 파일을 다운받는데에 한시간 정도 걸리는 것으로 명령창에 뜨고 있기 때문에
+ 여기서 부터는 가이드가 끝났기 때문에 글을 한번 마무리하고 새 글로 정리하도록 하겠다.
Deepfakes step-by-step with DeepFaceLab / Python Face Swap
This course shows the current state of the art of future-oriented technology machine learning with a specific application, namely the exchange of faces in a video. This process is also known as deepfake.
Deepfake videos are almost indistinguishable from real ones. In contrast to photos, until recently it was very time-consuming to manipulate videos in a photo-realistic manner. But that has been over at the latest since the triumph of machine learning:
AI-based tools can also be used almost unnoticed in the moving image and exchange faces or put them on other bodies.
We use the current tool DeepFaceLab step by step to change the face in a video, so that is looks deceptively real.
And we also take a look at Avarify (based on the First Order Model): Control Photorealistic avatars for video-conferencing in realtime.
Are there any requirements or requirements for the course?
No programming skills are required
For one part of the course a mid-range Nvidia graphics card is recommended ( min. 4 GB VRAM)
(only for DeepfaceLab, for Avatarify you can render the code remotely on a google server 🙂
Who is this course for?
Beginners interested in machine learning – deepfakes
Advanced developers who want to generate their own deepfakes
A view of what awaits you:
Step-by-step with DeepFaceLab, we go through everything together
Download the software
Preparation of the data
Training the model
Exchange of faces
Video generation and review
Avatarify – Realtime Face-Swap, where your control any Avatar (only 1 Picture needed) with your Webcam
The course contains a concrete practical examples.
You not only learn how to create deepfakes,
but also how you apply it directly.
I´m not advocating the usage of Deepfake technology for illegal or unethical activities.
Please only use in the legal frame. There is one lession about this point in the course.
(파이썬)zoom을 할 때 내가 아닌 아인슈타인이 되는 방법
(파이썬)zoom을 할 때 내가 아닌 아인슈타인이 되는 방법
Posted at 22:57h in by pjk in 뉴스
교수님을 통해 이것을 알게 되었는데 신기해서 학우들에게 소개하게 됐습니다.
이 기술은 딥페이크를 이용한 기술이며 관련 설명은 이곳을 눌러 확인해주세요.
저같이 파이썬을 능숙하게 다루지 못하여도 개발자의 설명을 보고 하면 어렵지 않습니다.
2대의 컴퓨터로 테스트 해봤으며 각각 다른 인터넷 환경과 그래픽 카드를 사용하고 있습니다.
한 컴퓨터는 10분이내로 됐지만, 다른 컴퓨터로 테스트하면서 잘 안됐습니다.
해결 방법이 잘 올라와있지 않아 스스로 해결하느라 애를 먹었지만 , 제 해결방법을 보고 학우님들은 잘 작동했으면 좋겠습니다.
이 글은 소개하는 글이지 실제 수업에서 쓰거나 악의적인 용도로 사용하면 안됩니다. 모든 사용에는 책임이 따릅니다.
먼저 준비물 입니다.
원활하게 작동하기 위해
1.CUDA를 지원하는 NVIDIA GPU 가 필요합니다.
NVIDIA GPU 를 탑재한 데스크탑이나 노트북 중에 게이밍용 NVIDA GPU가 탑재 돼있지 않다면 상당히 느려 작동이 힘듭니다.
(아래 github 글에 서버를 활용하여 NVIDA GPU가 없이도 작동하는 방법도 올라와있습니다.)
2.웹캠이 필요합니다.
웹캠으로 본인의 얼굴을 인식하여 얼굴 표정을 따라하여 움직이게 만드는 것이기 때문에 웹캠이 필수적으로 필요합니다.
3. miniconda 와 git을 설치해야합니다. (자신의 운영체제에 맞는 것을 골라 모두 NEXT만 눌러주면 됩니다).
자세한 설명은 아래 개발자의 유튜브 영상과 주소로 대체합니다.
https://github.com/alievk/avatarify#windows
위의 영상을 보고 대부분 잘 되는 것 같습니다만 혹시 작동이 잘 되지 않는 학우들이 있을 수 있습니다.
다음은 두개의 해결방법입니다.
Q1.영상을 보고 큰 오류가 없었는데, 웹캠으로 본인의 얼굴과 아인슈타인이 뜨지않는다면?
A1. Anaconda Powershell Prompt (miniconda3) 를 열어(주의! 설치된 패키지나 캐시등이 삭제 되니 평소 파이썬을 이용하시던 분은 주의가 필요합니다)
conda clean –all 를 입력한 후
다시 Anaconda Prompt (miniconda3)에서
cd avatarify 부터
위 영상을 보고 해보면 됩니다
Q2.
scripts \i nstall_windows.bat 명령어를 입력 한 후,
pytorch-1.0.0 패키지를 설치하는 도중에 너무 느리거나 오류가 난다면?
인터넷 속도 등의 문제일 수 있습니다.
https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloud/pytorch/win-64/
위 미러사이트에서 해당하는 pytorch 버젼을 다운 받은 후
(제 경우는 pytorch-1.0.0-py3.7_cuda100_cudnn7_1 이었습니다. 바이러스 검사를 해보았지만, 문제없는 파일이여서 걱정안하셔도 될 것 같습니다. 관련 링크 )
Anaconda Powershell Prompt (miniconda3)나 Anaconda Prompt(miniconda3)를 열어 conda install 해당 파일경로를 입력하시면 됩니다.
ex)conda install C:\Users\사용자이름\Downloads\pytorch-1.0.0-py3.7_cuda100_cudnn7_1.tar.bz2
그 후 다시
키워드에 대한 정보 파이썬 딥 페이크
다음은 Bing에서 파이썬 딥 페이크 주제에 대한 검색 결과입니다. 필요한 경우 더 읽을 수 있습니다.
이 기사는 인터넷의 다양한 출처에서 편집되었습니다. 이 기사가 유용했기를 바랍니다. 이 기사가 유용하다고 생각되면 공유하십시오. 매우 감사합니다!
사람들이 주제에 대해 자주 검색하는 키워드 \”아이유인데 아이유가 아닙니다\” | 머신러닝으로 딥페이크 영상을 직접 만들어 보았습니다 (feat. 박보검, 백종원)
- 딥페이크
- DeepFake
- 아이유
\”아이유인데 #아이유가 #아닙니다\” #| #머신러닝으로 #딥페이크 #영상을 #직접 #만들어 #보았습니다 #(feat. #박보검, #백종원)
YouTube에서 파이썬 딥 페이크 주제의 다른 동영상 보기
주제에 대한 기사를 시청해 주셔서 감사합니다 \”아이유인데 아이유가 아닙니다\” | 머신러닝으로 딥페이크 영상을 직접 만들어 보았습니다 (feat. 박보검, 백종원) | 파이썬 딥 페이크, 이 기사가 유용하다고 생각되면 공유하십시오, 매우 감사합니다.