pyqt

Speaker Encoder复现: Transfer Learning from Speaker Verification to Multispeaker TTS

笑着哭i 提交于 2020-11-19 23:51:43
0. 说明 跑通他: https://github.com/CorentinJ/Real-Time-Voice-Cloning 中文版1: https://github.com/KuangDD/zhrtvc git clone https://github.com/CorentinJ/Real-Time-Voice-Cloning.git cd Real-Time-Voice-Cloning/ 1. 环境 环境名字为: voiceclone_p36 conda create -n voiceclone_p36 python=3.6.5 conda activate voiceclone_p36 conda install pytorch torchvision torchaudio cpuonly -c pytorch conda install -c conda-forge librosa # 这一点是特别的 (把 ffmpeg也顺便装好了 ) 将requirement.txt中的librosa那条删除 conda install tensorflow-gpu==1.14 将requirement.txt中的tensorflow==1.15那条删除 sudo pacman -S python-pyqt5 将requirement.txt中的PyQt5那条删除 再删除一些已经装好的

语义分割中单类别和多类别图片数据标注,以及灰度类别转换

穿精又带淫゛_ 提交于 2020-11-17 03:42:47
精、点击上方 “ 码农的后花园 ”, 选择 “ 星标 ” 公众号 精选文章,第一时间送达 上期讲解了语义分割模型的基本架构和常用数据集,这期就讲解一下语义分割数据集的制作,追下去吧~ 制作总体步骤: 1. 使用lableme对图片数据进行标注,生成对应图片的x.json文件。 2. 执行lableme下的内置函数labelme_json_to_dataset,依次 手动 生成图片对应的x_json文件(或者使用代码一次性处理生成)。 3. 对第二步生成文件夹中的文件进行处理,生成语义图片label.png。 4. 将语义图片转换为类别灰度图图片-最终训练标签文件。 一、文件目录结构: 二、正式开始制作 第一步:标注软件的安装 1.Anaconda Prompt中创建一个环境 conda create --name=labelImg python=3.6 2.激活进入刚建立的新环境, conda activate labelImg 3.安装界面支持pyqt5包 pip install pyqt5 -i https://pypi.douban.com/simple/ 4.下载安装labelme pip install labelme -i https://pypi.douban.com/simple/ 5.输入命令labelme,就可以启动程序进行数据标注 第二步:进行标注 A