Stella981 Stella981
2年前
CentOS 7 部署Gitlab+Jenkins持续集成(CI)环境
持续集成概述及运行流程:持续集成概述:持续集成(Continuousintegration)持续集成是指开发者在代码的开发过程中,可以频繁的将代码部署集成到主干,并进行自动化测试 开发→代码编译→测试持续交付:持续交付指的是在持续集成的环境基础之上,将代码部署到预生产环境持续部署:在持续交付的基础上,把部署到
Stella981 Stella981
2年前
Pytorch固定部分参数(只训练部分层)
在迁移学习中我们经常会用到预训练模型,并在预训练模型的基础上添加额外层。训练时先将预训练层参数固定,只训练额外添加的部分。完了之后再全部训练微调。在pytorch固定部分参数训练时需要在优化器中施加过滤。!(https://oscimg.oschina.net/oscnet/c2e82d04a39a6ac7a0edc7e41e7bbad219a
Stella981 Stella981
2年前
PaddlePaddle预训练模型大合集,还有官方使用说明书
PaddlePaddle在不断增加官方支持的模型的同时,也在关注预训练模型的丰富度。在过去的版本中,我们已经发布了目标检测FasterRCNN、MobileNetSSD、PyramidBox和场景文字识别CRNNCTC、OCRAttention共计5个预训练模型。近期,在图像分类领域我们一口气发布了四个系列共十个预训练模型,丰富扩充了预训练模
Stella981 Stella981
2年前
Flutter for Web 详细预研
背景Google在最新的GoogleI/O上推出了FlutterforWeb,旨在进一步解决一次代码,多端运行的问题。FlutterforWeb还处于早期试验版,官方不建议在生产环境上使用。那么到底它的实际情况怎么样呢?我们做了一次预研。期望这次预研的结果可以帮你决定是用,还是不用FFW。FlutterforWeb原理
Wesley13 Wesley13
2年前
4项探索+4项实践,带你了解华为云视觉预训练研发技术
摘要:本文主要讲述云原生时代华为云在AI基础研究、视觉预训练模型研发和行业实践,以及AI开发平台ModelArts的最新进展。近日,在Qcon全球软件开发大会(深圳站)上,华为云人工智能领域首席科学家、IEEEFELLOW田奇博士,发表了“云原生时代,视觉预训练大模型探索与实践”的主题演讲,介绍了云原生时代华为云在AI基础研究、视觉预训练模
Wesley13 Wesley13
2年前
C程序编程四步走
任何一个C程序代码到生成一个可执行文件都需要四步,分别是预处理Preprocessing,编译Compiling,汇编Assembling和链接Link,这里借助Gcc工具来探究这四步分别做了什么事,起到什么样的作用。本文使用的测试代码是经典入门程序"HelloWorld!"。测试环境为探究预处
Stella981 Stella981
2年前
Prefetch和预加载实践
之前介绍了利用Preload优化首屏关键资源的加载(https://www.oschina.net/action/GoToLink?urlhttps%3A%2F%2Fmp.weixin.qq.com%2Fs%3F__biz%3DMzA5NzkwNDk3MQ%3D%3D%26mid%3D2650587940%26idx%3D1%26sn%3D12eb51
高耸入云 高耸入云
2个月前
如何做Bert模型的fine-tuning?近屿智能OJAC带你一探究竟
📖更多AI资讯请👉🏾选择合适的预训练模型:从预训练的BERT模型开始,例如Google提供的BERTbase或BERTlarge。这些模型已经在大量文本数据上进行过预训练了,我们如何对BERT模型进行finetuning呢?准备和预处理数据:集针对特
灵吉菩萨 灵吉菩萨
1个月前
AI人人必修-提示词工程+大模型多场景实战(超清完结)
由于大语言模型的训练需要巨大的计算资源,通常不可能多次迭代大语言模型预训练。千亿级参数量的大语言模型每次预训练的计算需要花费数百万元人民币。因此,在训练大语言模型之前,构建一个准备充分的预训练语料库尤为重要。download:kuxueit.cn/9291