1、环境配置
python作为脚本语言,只需要一个python解释器就可以直接编写代码和运行。 但是为了方便我们通常会使用IDE(集成开发环境)或轻量级的文本编辑器进行开发。 这里首先介绍使用最简单的python编辑器编写代码,以及使用VS Code、Jupyter开发。
查看全文 >>NVIDIA GPU驱动:nvidia-smi是nvidia 的系统管理接口,一般安装NVIDIA GPU驱动后即可使用。
CUDA Toolkit:CUDA(Compute Unified Device Architecture),是NVIDIA推出的运算平台,AMD也有类似的平台 ROCm,但并不成熟。 CUDA™是一种由NVIDIA推出的通用并行计算架构,该架构使GPU能够解决复杂的计算问题。 它包含了CUDA指令集架构(ISA)以及GPU内部的并行计算引擎。
cuDNN:NVIDIA cuDNN是用于深度神经网络的GPU加速库。它强调性能、易用性和低内存开销。NVIDIA cuDNN可以集成到更高级别的机器学习框架中,如Tensorflow、pytorch等。简单的插入式设计可以让开发人员专注于设计和实现神经网络模型,而不是简单调整性能,同时还可以在GPU上实现高性能现代并行计算。
Conda:Conda 是一个开源的软件包管理系统和环境管理系统,用于安装多个版本的软件包及其依赖关系,并在它们之间轻松切换。
PyTorch:PyTorch是一个开源的Python机器学习库,提供两个高级功能:1、具有强大的GPU加速的张量计算(如NumPy)。2、包含自动求导系统的深度神经网络。
TensorFlow:TensorFlow™是一个基于数据流编程(dataflow programming)的符号数学系统,被广泛应用于各类机器学习(machine learning)算法的编程实现,其前身是谷歌的神经网络算法库DistBelief。
总结:NVIDIA GPU驱动、CUDA Toolkit、cuDNN作用是使用NVIDIA进行GPU加速,如果只使用CPU或AMD显卡则不需要。Conda方便后面环境配置和软件管理。PyTorch和TensorFlow是两个不同的深度学习框架,PyTorch学术界使用较为广泛,方便简单,易于上手。TensorFlow工业界使用较为广泛,泛用性好,被更多框架和平台支持。
查看全文 >>[TOC]
会议: NeurIPS 2017
论文地址:https://arxiv.org/abs/1706.03762
主流的序列转换模型多是基于复杂的循环或卷积神经网络,网络包括编码器和解码器。性能最好的模型还通过注意机制连接编码器和解码器。我们提出了一个新的简单且完全基于注意力机制的网络结构,Transformer,摒弃了循环和卷积。在两个机器翻译任务上的实验表明,这些模型具有更高的并行性,更少的训练时间。我们的模型在WMT 2014 Englishto-German 的翻译任务中达到28.4 BLEU,比现有的最佳结果(包括集成模型)提高了2 BLEU以上。在WMT 2014 English-to-French翻译任务中,我们的模型在8个GPU上训练3.5天后,达到了新的单模型BLEU 41.8的最新分数,这只相当于文献中最佳模型训练成本的一小部分。通过将Transformer成功地应用于大规模和有限训练数据下的英语选区分析,证明了Transformer具有良好的泛化能力。
查看全文 >>会议:CVPR 2020
地址:https://arxiv.org/abs/2004.05794
由于模糊过程中丢失了大量的运动信息,从运动模糊图像中恢复清晰的视频序列是一个高度不适定问题。然而,对于基于事件的相机,快速运动可以在高时间率上作为事件被捕捉,从而提出了探索有效解决方案的新机遇。在本文中,我们从基于事件的运动去模糊的序列表述开始,然后说明如何使用新颖的端到端深度架构来实现其优化。所提出的架构是一个卷积循环神经网络,有原则的整合了全局和局部尺度的视觉和时间知识。为了进一步改进(图像的)重建,我们提出了一种可微的定向事件过滤模块,可以有效地从事件流中提取丰富的先验边界。我们在合成的GoPro数据集和新引入的使用DAVIS240C相机捕获的大型数据集上进行了大量的实验。我们提出的方法达到了最先进的重建质量,并更好地处理现实世界的运动模糊。
查看全文 >>经验这东西,必须具体问题具体对待,一人的经验不可能适合所有人。也不存在什么复习的捷径,个人认为好的经验并不能让你事半功倍,只是单纯指出一条让你相信自己这么干也能成功的道路。以下观点和经验都是一家之言,我不坚持自己的看法。本来打算多写点,但是现在突然感觉没什么可写的了,感触还没我去年的深。
查看全文 >>本文提出了一种新的网络设计范式。我们的目标是帮助提高对网络设计的理解,并发现在不同环境下普遍适用的设计原则。我们不再专注于设计单个的网络实例,而是设计了参数化网络总体的网络设计空间。整个过程类似于经典的人工网络设计,但提升到了设计空间层面。使用我们的方法,我们探索网络设计的结构方面,并得出一个低维的设计空间,由简单的,规则的网络组成,我们称之为RegNet。RegNet参数化的核心观点非常简单:良好网络的宽度和深度可以用量化的线性函数来解释。我们分析了RegNet的设计空间,得出了与当前网络设计实践不符的有趣发现。RegNet的设计空间提供了简单而快速的网络,可以很好地在各种不同的FLOP状态下工作。在类似的训练环境和FLOPs下,RegNet模型的性能优于流行的efficientnet模型,而在gpu上的速度高达5倍。
查看全文 >>提出了一种适合于大规模图像检索的局部特征描述器,称为Deep-local-feature。新的特征是基于卷积神经网络,它只在地标图像数据集上使用图像级注释进行训练。为了识别在语义上有用的图像检索局部特征,我们还提出了一种用于关键点选择的注意机制,该机制与描述符共享大部分网络层。该框架可用于图像检索,作为其他关键点检测器和描述符的替代品,实现更精确的特征匹配和几何匹配验证。我们的系统产生可信的分数拒绝误报(FP),尤其是它的健壮性针对数据库中没有正确匹配的查询。为了评估所提出的描述符,我们引入了一个新的大规模数据集,被称为谷歌地标(GLD)数据集,包括数据库和 查询搜索作为背景杂波,部分遮挡,多个地标、可变尺度的物体等DELF的成绩超过了全球和当地最先进的水平(SOTA)在大范围数据集中的描述符。可在以下网页找到项目代码:https://github.com/tensorflow/models/tree/master/research/delf。
查看全文 >> 本文使用机翻,稍加润色,主要用于个人理解,不恰当之处请看客见谅。
图像检索是在图像数据库中搜索与查询图像相似的项的问题。为了解决这一问题,研究了两种主要的图像表示方法:全局图像特征和局部图像特征。在这项工作中,我们的主要贡献是将全局和局部特征统一到一个单一的深度模型中,从而实现精确的检索和高效的特征提取。我们将新模型称为DELG,代表了深层网络的本地和全局特性。我们利用最近特征学习工作的经验教训,提出了一个将全局特征的广义均值池和局部特征的注意选择相结合的模型。通过仔细平衡两部分之间的梯度流,整个网络可以端到端地学习——只需要图像级别的标签。我们还引入了一种基于自动编码器的局部特征降维技术,并将其集成到模型中,提高了训练效率和匹配性能。在重新修改的牛津和巴黎数据集上的实验表明,我们共同学习的基于ResNet-50的特征优于使用深层全局特征(大多数具有更重量级的主干)和那些进一步使用局部特征重新排序的结果。代码和模型将被发布。
关键词:deep features,image retrieval,unified model,深度特征,图像检索,统一模型
查看全文 >>1 | [method] [uri] [version]\r\n |
1.1 第一行的字段为请求的:方法,资源地址,协议版本
http协议常用的请求方法[method]为
资源地址[uri]:一般为URL中去掉域名后剩下的那部分,即浏览器地址栏网址中域名之后的内容。 http协议版本[version]: 目前主流版本有HTTP/1.0和HTTP/1.1。 http请求头中的的换行用的是\r\n, 而非Linux中的换行符\n。以下为一个真实请求头的示例
查看全文 >>GET /index.html HTTP/1.1
Host: www.example.com
Connection: keep-alive
设置图像根目录
以hexo根目录下的source文件夹为例
该文件夹中的内容会上传至web根目录,因此此文件相当于网站的根目录
而文章所在目录为source文件夹下的_post文件夹, 根目录在文章的上级目录
因此设置图片根目录为..
既在标题栏添加此内容:typora-root-url: ..
设置图片目录
..\img
typora-copy-images-to: ..\img
tag:
缺失模块。
1、请确保node版本大于6.2
2、在博客根目录(注意不是yilia根目录)执行以下命令:
npm i hexo-generator-json-content --save
3、在根目录_config.yml里添加配置:
jsonContent: meta: false pages: false posts: title: true date: true path: true text: false raw: false content: false slug: false updated: false comments: false link: false permalink: false excerpt: false categories: false tags: true