当前位置: 首页 > news >正文

深度神经网络的应用

深度学习能应用在哪些领域?

深度学习的快速发展,不仅使机器学习得到许多实际的应用,还拓展了整个AI(人工智能的)的范围。

它将任务进行拆解,使得各种类型的机器辅助变成可能,具体分为以下几类应用:1、无人驾驶汽车:深度学习在无人驾驶领域主要用于图像处理,可以用于感知周围环境、识别可行驶区域检测、以及识别行驶路径识别。

2、图片识别及分类:识别出图片中的对象,并建立关键词,对图片进行分类。

3、机器翻译:基于深度学习理论,借助海量计算机模拟的神经元,在海量的互联网资源的依托下,来模仿人脑理解语言,形成更加符合语法规范、容易理解的译文。

4、目标识别:即不仅可以识别出是什么物体,还可以预测物体的位置,位置一般用边框标记。

5、情感识别:通过深度学习,帮助计算机识别新闻、微博、博客、论坛等文本内容中所包含情感态度,从而及时发现产品的正负口碑。

6、艺术创作:通过深度学习,让计算机学会根据不同的作曲家风格进行音乐编曲或者基于各流派画家进行绘画创作。

谷歌人工智能写作项目:神经网络伪原创

深度学习目前哪些领域应用最广泛?

深度学习是近几年人工智能领域的主要研究方向写作猫

深度学习的主要任务是通过构建深度卷积神经网络(DeepNeuralNetwork,DNN)和采用大量样本数据作为输入,人们最终会得到一个具有强大分析能力和识别能力的模型,该模型包含了DNN的构成参数以应用于实际工作。

近几年深度学习在很多领域都取得了很大发展,已经基本取代了先前相关技术,在图像识别、语音识别已经取得了非凡的突破。那么深度学习的应用领域具体有哪些呢?下面来列举几个广泛应用深度学习的领域。

一、语音识别深度学习的发展使语音识别有了很大幅度的效果提升,类似于在计算机视觉中处理图像数据一样,深度学习中将声音转化为特征向量,然后对这些数字信息进行处理输入到网络中进行训练,得到一个可以进行语音识别的模型。

二、自然语言处理深度学习由于其非线性的复杂结构,将低维稠密且连续的向量表示为不同粒度的语言单元,例如词、短语、句子和文章,让计算机可以理解通过网络模型参与编织的语言,进而使得人类和计算机进行沟通。

此外深度学习领域中研究人员使用循环、卷积、递归等神经网络模型对不同的语言单元向量进行组合,获得更大语言单元的表示。三、文字识别众所周知,深度学习可以用来识别照片中的文字。

一旦识别了,文字就会被转成文本,并且被翻译,然后图片就会根据翻译的文本重新创建。这就是我们通常所说的即时视觉翻译。四、自动机器翻译我们都知道,谷歌支持100种语言的即时翻译,速度之快宛如魔法。

谷歌翻译的背后,就是机器学习。在过去的几年时间里,谷歌已经完全将深度学习嵌入进了谷歌翻译中。

事实上,这些对语言翻译知之甚少的深度学习研究人员正提出相对简单的机器学习解决方案,来打败世界上最好的专家语言翻译系统。文本翻译可以在没有序列预处理的情况下进行,它允许算法学习文字与指向语言之间的关系。

五、自动驾驶汽车谷歌利用深度学习算法使自动驾驶汽车领域达到了一个全新的水平。现在谷歌已经不再使用老的手动编码算法,而是编写程序系统,使其可以通过不同传感器提供的数据来自行学习。

对于大多数感知型任务和多数低端控制型任务,深度学习现在是最好的方法。

简述神经网络、机器学习、深度学习之间的关系与应用。

深度学习都能应用于哪些领域,目前有什么产品?

近几年深度学习在很多领域都取得了很大发展,已经基本取代了先前相关技术,在图像识别、语音识别已经取得了非凡的突破。那么深度学习的应用领域具体有哪些呢?下面来列举几个广泛应用深度学习的领域。

一、语音识别深度学习的发展使语音识别有了很大幅度的效果提升,类似于在计算机视觉中处理图像数据一样,深度学习中将声音转化为特征向量,然后对这些数字信息进行处理输入到网络中进行训练,得到一个可以进行语音识别的模型。

二、自然语言处理深度学习由于其非线性的复杂结构,将低维稠密且连续的向量表示为不同粒度的语言单元,例如词、短语、句子和文章,让计算机可以理解通过网络模型参与编织的语言,进而使得人类和计算机进行沟通。

此外深度学习领域中研究人员使用循环、卷积、递归等神经网络模型对不同的语言单元向量进行组合,获得更大语言单元的表示。三、文字识别众所周知,深度学习可以用来识别照片中的文字。

一旦识别了,文字就会被转成文本,并且被翻译,然后图片就会根据翻译的文本重新创建。这就是我们通常所说的即时视觉翻译。四、自动机器翻译我们都知道,谷歌支持100种语言的即时翻译,速度之快宛如魔法。

谷歌翻译的背后,就是机器学习。在过去的几年时间里,谷歌已经完全将深度学习嵌入进了谷歌翻译中。

事实上,这些对语言翻译知之甚少的深度学习研究人员正提出相对简单的机器学习解决方案,来打败世界上最好的专家语言翻译系统。文本翻译可以在没有序列预处理的情况下进行,它允许算法学习文字与指向语言之间的关系。

五、自动驾驶汽车谷歌利用深度学习算法使自动驾驶汽车领域达到了一个全新的水平。现在谷歌已经不再使用老的手动编码算法,而是编写程序系统,使其可以通过不同传感器提供的数据来自行学习。

对于大多数感知型任务和多数低端控制型任务,深度学习现在是最好的方法。如果你对深度学习感兴趣,想成为人工智能领域的高级人才,欢迎咨询报名优就业深度学习精品课程。

课程由中公教育与中科院自动化研究所专家联合推出,真实企业级项目实操,项目循序渐进,以实操贯穿理论,避免纸上谈兵,涵盖行业75%技术要点,落地领域广泛。

深度学习的职业发展方向有哪些?

当前,人工智能发展借助深度学习技术突破得到了全面关注和助力推动,各国政府高度重视、资本热潮仍在加码,各界对其成为发展热点也达成了共识。

本文旨在分析深度学习技术现状,研判深度学习发展趋势,并针对我国的技术水平提出发展建议。一、深度学习技术现状深度学习是本轮人工智能爆发的关键技术。

人工智能技术在计算机视觉和自然语言处理等领域取得的突破性进展,使得人工智能迎来新一轮爆发式发展。而深度学习是实现这些突破性进展的关键技术。

其中,基于深度卷积网络的图像分类技术已超过人眼的准确率,基于深度神经网络的语音识别技术已达到95%的准确率,基于深度神经网络的机器翻译技术已接近人类的平均翻译水平。

准确率的大幅提升使得计算机视觉和自然语言处理进入产业化阶段,带来新产业的兴起。深度学习是大数据时代的算法利器,成为近几年的研究热点。和传统的机器学习算法相比,深度学习技术有着两方面的优势。

一是深度学习技术可随着数据规模的增加不断提升其性能,而传统机器学习算法难以利用海量数据持续提升其性能。

二是深度学习技术可以从数据中直接提取特征,削减了对每一个问题设计特征提取器的工作,而传统机器学习算法需要人工提取特征。

因此,深度学习成为大数据时代的热点技术,学术界和产业界都对深度学习展开了大量的研究和实践工作。深度学习各类模型全面赋能基础应用。卷积神经网络和循环神经网络是两类获得广泛应用的深度神经网络模型。

计算机视觉和自然语言处理是人工智能两大基础应用。卷积神经网络广泛应用于计算机视觉领域,在图像分类、目标检测、语义分割等任务上的表现大大超越传统方法。

循环神经网络适合解决序列信息相关问题,已广泛应用于自然语言处理领域,如语音识别、机器翻译、对话系统等。深度学习技术仍不完美,有待于进一步提升。

一是深度神经网络的模型复杂度高,巨量的参数导致模型尺寸大,难以部署到移动终端设备。二是模型训练所需的数据量大,而训练数据样本获取、标注成本高,有些场景样本难以获取。

三是应用门槛高,算法建模及调参过程复杂繁琐、算法设计周期长、系统实施维护困难。四是缺乏因果推理能力,图灵奖得主、贝叶斯网络之父JudeaPearl指出当前的深度学习不过只是“曲线拟合”。

五是存在可解释性问题,由于内部的参数共享和复杂的特征抽取与组合,很难解释模型到底学习到了什么,但出于安全性考虑以及伦理和法律的需要,算法的可解释性又是十分必要的。因此,深度学习仍需解决以上问题。

二、深度学习发展趋势深度神经网络呈现层数越来越深,结构越来越复杂的发展趋势。为了不断提升深度神经网络的性能,业界从网络深度和网络结构两方面持续进行探索。

神经网络的层数已扩展到上百层甚至上千层,随着网络层数的不断加深,其学习效果也越来越好,2015年微软提出的ResNet以152层的网络深度在图像分类任务上准确率首次超过人眼。

新的网络设计结构不断被提出,使得神经网络的结构越来越复杂。

如:2014年谷歌提出了Inception网络结构、2015年微软提出了残差网络结构、2016年黄高等人提出了密集连接网络结构,这些网络结构设计不断提升了深度神经网络的性能。

深度神经网络节点功能不断丰富。为了克服目前神经网络存在的局限性,业界探索并提出了新型神经网络节点,使得神经网络的功能越来越丰富。

2017年,杰弗里辛顿提出了胶囊网络的概念,采用胶囊作为网络节点,理论上更接近人脑的行为,旨在克服卷积神经网络没有空间分层和推理能力等局限性。

2018年,DeepMind、谷歌大脑、MIT的学者联合提出了图网络的概念,定义了一类新的模块,具有关系归纳偏置功能,旨在赋予深度学习因果推理的能力。深度神经网络工程化应用技术不断深化。

深度神经网络模型大都具有上亿的参数量和数百兆的占用空间,运算量大,难以部署到智能手机、摄像头和可穿戴设备等性能和资源受限的终端类设备。

为了解决这个问题,业界采用模型压缩技术降低模型参数量和尺寸,减少运算量。目前采用的模型压缩方法包括对已训练好的模型做修剪(如剪枝、权值共享和量化等)和设计更精细的模型(如MobileNet等)两类。

深度学习算法建模及调参过程繁琐,应用门槛高。为了降低深度学习的应用门槛,业界提出了自动化机器学习(AutoML)技术,可实现深度神经网络的自动化设计,简化使用流程。

深度学习与多种机器学习技术不断融合发展。

深度学习与强化学习融合发展诞生的深度强化学习技术,结合了深度学习的感知能力和强化学习的决策能力,克服了强化学习只适用于状态为离散且低维的缺陷,可直接从高维原始数据学习控制策略。

为了降低深度神经网络模型训练所需的数据量,业界引入了迁移学习的思想,从而诞生了深度迁移学习技术。迁移学习是指利用数据、任务或模型之间的相似性,将在旧领域学习过的模型,应用于新领域的一种学习过程。

通过将训练好的模型迁移到类似场景,实现只需少量的训练数据就可以达到较好的效果。三、未来发展建议加强图网络、深度强化学习以及生成式对抗网络等前沿技术研究。

由于我国在深度学习领域缺乏重大原创性研究成果,基础理论研究贡献不足,如胶囊网络、图网络等创新性、原创性概念是由美国专家提出,我国研究贡献不足。

在深度强化学习方面,目前最新的研究成果大都是由DeepMind和OpenAI等国外公司的研究人员提出,我国尚没有突破性研究成果。

近几年的研究热点生成式对抗网络(GAN)是由美国的研究人员Goodfellow提出,并且谷歌、facebook、twitter和苹果等公司纷纷提出了各种改进和应用模型,有力推动了GAN技术的发展,而我国在这方面取得的研究成果较少。

因此,应鼓励科研院所及企业加强深度神经网络与因果推理模型结合、生成式对抗网络以及深度强化学习等前沿技术的研究,提出更多原创性研究成果,增强全球学术研究影响力。

加快自动化机器学习、模型压缩等深度学习应用技术研究。依托国内的市场优势和企业的成长优势,针对具有我国特色的个性化应用需求,加快对深度学习应用技术的研究。

加强对自动化机器学习、模型压缩等技术的研究,加快深度学习的工程化落地应用。加强深度学习在计算机视觉领域应用研究,进一步提升目标识别等视觉任务的准确率,以及在实际应用场景中的性能。

加强深度学习在自然语言处理领域的应用研究,提出性能更优的算法模型,提升机器翻译、对话系统等应用的性能。

来源:产业智能官END更多精彩内容请登录官方网站往期精选▼1.饮鹿网2018-2019年中国人工智能产业创新百强榜单发布!2.饮鹿网2018-2019年中国人工智能产业Top20投资机构榜单发布!

3.饮鹿网2018-2019年中国大数据产业创新百强榜单发布!4.饮鹿网2018-2019年中国大数据产业Top20投资机构榜单发布!

5.饮鹿网2018-2019年中国物联网产业创新百强榜单发布!6.饮鹿网2018-2019年中国5G与物联网产业TOP20投资机构榜单发布!

7.饮鹿网2018-2019年中国集成电路产业创新百强榜单发布!8.饮鹿网2018-2019年中国集成电路产业Top20投资机构榜单发布!

9.饮鹿网2018-2019年中国企业服务产业创新百强榜单发布!10.饮鹿网2018-2019年中国企业服务产业TOP20投资机构榜单发布!

深度学习被运用到多个领域,给人们的生活带来哪些变化?

尽管深度学习的一个目标是设计能够处理各种任务的算法,然而截至目前深度学习的应用仍然需要一定程度的特化。

例如,计算机视觉中的任务对每一个样本都需要处理大量的输入特征(像素),自然语言处理任务的每一个输入特征都需要对大量的可能值(词汇表中的词) 建模。

大规模深度学习深度学习的基本思想基于联结主义:尽管机器学习模型中单个生物性的神经元或者说是单个特征不是智能的,但是大量的神经元或者特征作用在一起往往能够表现出智能。

我们必须着重强调神经元数量必须很大这个事实。相比20世纪80年代,如今神经网络的精度以及处理任务的复杂度都有一定提升,其中一个关键的因素就是网络规模的巨大提升。

在过去的30年内,网络规模是以指数级的速度递增的。然而如今的人工神经网络的规模也仅仅和昆虫的神经系统差不多。由于规模的大小对于神经网络来说至关重要,因此深度学习需要高性能的硬件设施和软件实现。

快速的CPU实现传统的神经网络是用单台机器的CPU 来训练的。如今,这种做法通常被视为是不可取的。现在,我们通常使用GPU 或者许多台机器的CPU 连接在一起进行计算。

在使用这种昂贵配置之前,为论证CPU 无法承担神经网络所需的巨大计算量,研究者们付出了巨大的努力。

描述如何实现高效的数值CPU 代码已经超出了本书的讨论范围,但是我们在这里还是要强调通过设计一些特定的CPU 上的操作可以大大提升效率。

例如,在2011 年,最好的CPU 在训练神经网络时使用定点运算能够比浮点运算跑得更快。

通过调整定点运算的实现方式,Vanhoucke et al. (2011) 获得了3 倍于一个强浮点运算系统的速度。因为各个新型CPU都有各自不同的特性,所以有时候采用浮点运算实现会更快。

一条重要的准则就是,通过特殊设计的数值运算,我们可以获得巨大的回报。除了选择定点运算或者浮点运算以外,其他的策略还包括了如通过优化数据结构避免高速缓存缺失、使用向量指令等。

机器学习的研究者们大多会忽略这些实现的细节,但是如果某种实现限制了模型的规模,那该模型的精度就要受到影响。

GPU实现许多现代神经网络的实现基于图形处理器(Graphics Processing Unit, GPU)。图形处理器最初是为图形应用而开发的专用硬件组件。

视频游戏系统的消费市场刺激了图形处理硬件的发展。GPU为视频游戏所设计的特性也可以使神经网络的计算受益。大规模的分布式实现在许多情况下,单个机器的计算资源是有限的。

因此,我们希望把训练或者推断的任务分摊到多个机器上进行。分布式的推断是容易实现的,因为每一个输入的样本都可以在单独的机器上运行。这也被称为数据并行(data parallelism)。

同样地,模型并行(model parallelism) 也是可行的,其中多个机器共同运行一个数据点,每一个机器负责模型的一个部分。对于推断和训练,这都是可行的。

在训练过程中,数据并行从某种程度上来说更加困难。对于随机梯度下降的单步来说,我们可以增加小批量的大小,但是从优化性能的角度来说,我们得到的回报通常并不会线性增长。

使用多个机器并行地计算多个梯度下降步骤是一个更好的选择。不幸的是,梯度下降的标准定义完全是一个串行的过程:第t 步的梯度是第t ¡ 1 步所得参数的函数。

这个问题可以使用异步随机梯度下降(Asynchoronous Stochasitc Gradient Descent)(Bengio et al., 2001b; Recht et al., 2011) 解决。

在这个方法中,几个处理器的核共用存有参数的内存。每一个核在无锁的情况下读取这些参数,并计算对应的梯度,然后在无锁状态下更新这些参数。

由于一些核把其他的核所更新的参数覆盖了,因此这种方法减少了每一步梯度下降所获得的平均提升。但因为更新步数的速率增加,总体上还是加快了学习过程。

Deanet al. (2012) 率先提出了多机器无锁的梯度下降方法,其中参数是由参数服务器(parameterserver) 管理而非存储在共用的内存中。

分布式的异步梯度下降方法保留了训练深度神经网络的基本策略,并被工业界很多机器学习组所使用(Chilimbi et al., 2014; Wu et al., 2015)。

学术界的深度学习研究者们通常无法负担那么大规模的分布式学习系统,但是一些研究仍关注于如何在校园环境中使用相对廉价的硬件系统构造分布式网络(Coates et al., 2013)。

模型压缩在许多商业应用的机器学习模型中,一个时间和内存开销较小的推断算法比一个时间和内存开销较小的训练算法要更为重要。

对于那些不需要个性化设计的应用来说,我们只需要一次性地训练模型,然后它就可以被成千上万的用户使用。在许多情况下,相比开发者,终端用户的可用资源往往更有限。

例如,开发者们可以使用巨大的计算机集群训练一个语音识别的网络,然后将其部署到移动手机上。

深度学习技术是是什么及其发展现状

简单来说,机器学习是实现人工智能的方法,深度学习是实现机器学习的技术。

机器学习在实现人工智能时中需要人工辅助(半自动),而深度学习使该过程完全自动化三者关系:举个例子:通过机器学习算法来识别水果是橘子还是苹果,需要人工输入水果的特征数据,生成一定的算法模型,进而可以准确预测具有这些特征的水果的类型,而深度学习则能自动的去发现特征进而判断。

深度学习技术的发展现状其实咱们的实际生活中已经有很多应用深度学习技术的案例了。

比如电商行业,在浏览淘宝时,页面中有很多都是符合你的爱好并且最近有意向购买的商品,这种个性化推荐中就涉及到深度学习技术,还有就是在购物界面能和你进行对话,解决疑问的淘宝智能机器人,也涉及深度学习技术。

比如交通领域,通过深度学习技术能监测到车辆停车、逆行等行为,甚至精确识别车辆的车牌号、颜色、车型、车辆里的人物等来辅助交通执法,甚至在发生交通事故和交通拥堵时进行报警等。

比如金融行业,银行通过深度学习技术能对数以百万的消费者数据(年龄,职业,婚姻状况等)、金融借款和保险情况(是否有违约记录,还款时间,车辆事故记录等)进行分析进而判断出是否能进行贷款服务。

比如家居行业,智能家居的应用也用到了深度学习技术,比如智能冰箱通过图像识别等技术记录食材种类和用户日常饮食数据,进而分析用户的饮食习惯,并根据多维度给出最全面的健康膳食建议。

比如制造行业,机器视觉已经长期应用在工业自动化系统中,如仪表板智能集成测试、金属板表面自动控伤、汽车车身检测、纸币印刷质量检测、金相分析、流水线生产检测等等,机器视觉自动化设备可以代替人工不知疲倦的进行重复性的工作,且在一些不适合于人工作业的危险工作环境或人工视觉难以满足要求的场合,机器视觉可替代人工视觉。

还有教育行业、医疗行业等,深度学习技术已经渗透到各个行业和领域。

未来3-5年,深度学习有多吃香?

01深度学习一些有趣的应用1.Face2FaceFace2Face是斯坦福大学等学生做的一款应用软件,这套系统能够利用人脸捕捉技术,让你说话的声音、表情、动作,投射到视频中的另一个人脸色。

如上图所示,左上角是特兰普演讲的视频,左下角是模仿者在说话,经过系统处理后,特兰普的表情和声音就变成了模仿者的表情和声音。

(大家可以搜下网上的视频,挺有意思的)2.灵魂画家这个大家可能也见过,就是在原来的图片上,加上了另外一个图片的风格特点。如上图所示,一张蒙娜丽莎的画,加上了梵高画的特征,就变成了如右边所示的图片。

3.AlphaGo这个大家就更熟悉了,2016年3月,AlphaGo与围棋世界冠军棋手李世石进行围棋人机大战,以4比1的总比分获胜。

通过上面的例子大家可以看到,深度学习的应用非常的广泛,小到很有趣的表情投影,大到围棋人机大战。

也就是说深度学习的空间很广,想做一个深度学习的产品也不是我们想象中的那么深奥,但是要想做得特别强大还是会有很多困难的。那深度学习究竟是什么,接下来就和大家详细讨论下。02什么才是深度学习?

在讲深度学习之前,我们先要知道什么是神经网络,而在讲神经网络之前,我们还得先知道什么是神经元。

1.神经元假设设置函数:Z(x)=W1X1+W2X2+W3X3+…+WnXn+b,(是不是很眼熟,跟我们之前说到的线性方程很相识,不知道这个由来的话,再次建议先看下前面提到的文章)。

则神经元的表示如下:每一个神经元就是一个逻辑回归算法。什么是逻辑回归算法,可以参考这篇文章《机器学习之逻辑回归》,在此就不展开讲了。

2.神经网络多个神经元相互连接就组成了神经网络,每个神经元都通过接收前一层网络传递来的信息,经过处理后,再传递给下一层。按结构来分,神经网络由:输入层、隐藏层和输出层组成。输入层:即原始的特征输入。

隐藏层:除输入层和输出层外,其他的就是隐藏层。输出层:后面不再接其他神经元。3.深度学习和神经网络的关系定义:有多层网络结构的神经网络,我们就说是深度学习。那有多少层才算是深度学习呢?

现在也没有一个官方的定义,有的人说3层,有的人说5层才算深度网络,多的高达上百层,反正大家都说自己是在做深度学习,这样看起来会比较高大尚点。模组化:深度学习有一个非常重要的思想就是模组化。

那什么是模组化思想呢?就像我们玩搭积木,一堆积木可以搭成各种各样形状的东西,而深度学习的每一层都是一个组件,可以供其他层灵活调用。

下面用一个例子说明:假设我们要做一个图像识别,区分出4类人群:长头发的女生、短头发的女生、长头发的男生、短头发的男生。

深度学习是什么?学完能干什么?

深度学习的概念源于人工神经网络的研究。含多隐层的多层感知器就是一种深度学习结构。深度学习通过组合低层特征形成更加抽象的高层表示属性类别或特征,以发现数据的分布式特征表示。

深度学习的概念由Hinton等人于2006年提出。基于深信度网(DBN)提出非监督贪心逐层训练算法,为解决深层结构相关的优化难题带来希望,随后提出多层自动编码器深层结构。

此外Lecun等人提出的卷积神经网络是第一个真正多层结构学习算法,它利用空间相对关系减少参数数目以提高训练性能。

深度学习是机器学习研究中的一个新的领域,其动机在于建立、模拟人脑进行分析学习的神经网络,它模仿人脑的机制来解释数据,例如图像,声音和文本。

 

相关文章:

  • 质量参差不齐,NFT交易版税该不该收?
  • 学生护眼灯国A与AA哪个牌子好?推荐国AA级的学生护眼台灯
  • 什么是mybatis,其实很简单
  • ViT: Vision transformer的cls token作用?
  • sql2java-excel(一):基于apache poi实现数据库表的导出及支持spring web
  • SSM保险办理系统毕业设计源码012232
  • 先睹为快_Mandelbrot集
  • centos 7 安装mysql 8.0.30
  • TR5521设计资料|TR5521替代方案|DP转VGA设计参考
  • javaweb教师招聘管理系统ssm
  • spring boot —— Spring Security定制权限管理
  • Python从入门到实践:包的使用
  • kubernetes二进制安装教程单master
  • LeetCode-998. 最大二叉树 II【最大二叉树】
  • 如何快速使用proteus【硬件课程设计】
  • 【技术性】Search知识
  • Angular Elements 及其运作原理
  • ComponentOne 2017 V2版本正式发布
  • Go 语言编译器的 //go: 详解
  • JavaScript设计模式系列一:工厂模式
  • Laravel 菜鸟晋级之路
  • Lsb图片隐写
  • MySQL用户中的%到底包不包括localhost?
  • scrapy学习之路4(itemloder的使用)
  • Spring思维导图,让Spring不再难懂(mvc篇)
  • 基于Android乐音识别(2)
  • 快速体验 Sentinel 集群限流功能,只需简单几步
  • 名企6年Java程序员的工作总结,写给在迷茫中的你!
  • 微信小程序上拉加载:onReachBottom详解+设置触发距离
  • 线上 python http server profile 实践
  • Java性能优化之JVM GC(垃圾回收机制)
  • 策略 : 一文教你成为人工智能(AI)领域专家
  • 移动端高清、多屏适配方案
  • (1)(1.19) TeraRanger One/EVO测距仪
  • (C#)Windows Shell 外壳编程系列4 - 上下文菜单(iContextMenu)(二)嵌入菜单和执行命令...
  • (附源码)ssm教师工作量核算统计系统 毕业设计 162307
  • (介绍与使用)物联网NodeMCUESP8266(ESP-12F)连接新版onenet mqtt协议实现上传数据(温湿度)和下发指令(控制LED灯)
  • (学习日记)2024.03.12:UCOSIII第十四节:时基列表
  • (转)Sql Server 保留几位小数的两种做法
  • (转载)(官方)UE4--图像编程----着色器开发
  • ***php进行支付宝开发中return_url和notify_url的区别分析
  • .NET CF命令行调试器MDbg入门(一)
  • .net实现头像缩放截取功能 -----转载自accp教程网
  • .sh 的运行
  • @Import注解详解
  • @requestBody写与不写的情况
  • [ 隧道技术 ] 反弹shell的集中常见方式(四)python反弹shell
  • [2013AAA]On a fractional nonlinear hyperbolic equation arising from relative theory
  • [C# 基础知识系列]专题十六:Linq介绍
  • [C/C++]数据结构 堆的详解
  • [Excel VBA]单元格区域引用方式的小结
  • [HUBUCTF 2022 新生赛]
  • [LeetCode 127] - 单词梯(Word Ladder)
  • [leetcode] 103. 二叉树的锯齿形层次遍历
  • [POJ - 2386]