jupyter matplotlib画图中文乱码的解决方案 在jupyter notebook中使用matplotlib画图时,中文字体显示乱码 看提示是缺少字体 查找matplotlib字体配置文件的目录import matplotlibmatplotlib.matplotlib_fname() 下载字体,放入对应目录中下载地址:https://xinhaojin.lanzoui.com/ibUMJvbo7ib 修改配置文件,启用新字体打开matp 2021-10-14 python
python与RPA(转载) RPA,是Robotic Process Automation的英文缩写,中文是机器人流程自动化,利用软件将重复性的工作自动化。基本目标是让人从重复性强的繁琐工作中解放出来去做更有意义更具创造性的工作。比如自动爬取网站内容、将十几个Excel中数据合并分析、定时发送邮件等都是简单的RPA应用的例子。 加上如今AI技术的快速发展,能极大地扩展软件自动化的应用范围,可以实现更复杂的功能。比如,可以通过 2021-09-14 python
使用labelme制作coco数据集 安装labelme直接使用pip安装 pip install labelme 运行命令行执行 labelme 打开后选择打开文件夹,选择自动保存 编辑,画矩形,然后打上标签 在图片目录下会保存json格式的标签信息 应用(以yolox为例)yolox的数据集readme中写明了需要的数据集格式 其中instancesxxx.json是很多json的集合,需要手动生成 现在要做的是,先手动 2021-09-02 目标检测
flask使用https 有一个https页面,需要加载http资源(后台是flask),出于安全原因被浏览器禁止了 既然只能用https,那就干脆把flask的所有请求都改成https 代码方面,只需要在app.run方法中增加ssl_context=’adhoc’,意思是使用服务器的本地SSL证书 if name==”main“: app.run(host=”0.0.0.0 2021-09-01 python
ubuntu20安装cuda&cudnn 安装驱动在软件和更新-附加驱动里,选择显卡驱动 禁用自带显卡驱动 sudo gedit /etc/modprobe.d/blacklist.conf 在最后一行加上: blacklist nouveau ,将Ubuntu自带的显卡驱动加入黑名单,修改后保存 还需执行一条命令使他生效 sudo update-initramfs -u 然后重启,输入以下命令查看支持的cuda版本 nvidia 2021-08-14 软件安装配置
win10下安装配置yolox 下载源码和模型文件https://github.com/Megvii-BaseDetection/YOLOX 创建一个新环境conda create -n yolox python==3.7conda activate yolox 安装依赖在yolox根目录下执行 pip install -U pippip install -r requirements.txtpip inst 2021-08-05 目标检测
安卓Intent返回上一个activity 需求从Activity1跳转到 Activity2,再从 Activity2返回到 Activity1,返回后自动更新 Activity1 分析如果只使用常规的startActivity是不行的,按我的理解,他会保存跳转的状态栈,状态只增不减,无法实现真正的“返回”,即: 从1跳转到2使用 startActivity ,从2跳转到1也使用 startActivity ,那么这两次跳转之后,如果你按 2021-07-28 安卓
matplotlib动态画图 方法一 1234567891011import matplotlib.pyplot as pltfig, ax = plt.subplots()y = []for i in range(50): y.append(i) # 每迭代一次,追加y数组的内容 ax.cla() # 清除键 ax.bar(y, label='test', heig 2021-07-27 python
多线程爬取某个网页的所有图片 1234567891011121314151617181920212223242526272829303132333435363738394041424344454647484950515253545556#coding=utf-8import importlibimport sysimport urllib.requestfrom bs4 import BeautifulSoup, Unicod 2021-07-14 爬虫
BeautifulSoup查找元素 12345678910111213141516171819202122232425262728293031323334353637383940414243from bs4 import BeautifulSoup#获取网页html代码import urllib.requestimport urllib.parseurl='https://blog.xinhaojin.top'r 2021-07-14 爬虫