我是靠谱客的博主 追寻砖头,最近开发中收集的这篇文章主要介绍Harbor对接Ceph S3推镜像retry的问题,觉得挺不错的,现在分享给大家,希望可以做个参考。

概述

小白之前用Ceph S3在为Harbor的Registry做后端存储时,不管是在1.x还是最新的2.1版本都会遇到docker push较大块镜像时不断重试的情况。
在这里插入图片描述

按照以往的经验,小白只能将Ceph的S3改为兼容Swift协议才能成功push镜像。

不过最近有了新的解决方案,引起该问题的似乎跟registry服务的配置multipartcopythresholdsize有关

https://github.com/goharbor/harbor/issues/12317

harbor-helm里面关于multipartcopythresholdsize的默认值是32M,显然在一个内网镜像仓库,并且docker镜像层没优化的前提下,这个值很容易超过。当前multipartcopythresholdsize最大支持5G,所以修改helm配置后重新部署服务即可解决该问题。

s3:
  region: default
  bucket: <your-bucket>
  accesskey: <your-accesskey>
  secretkey: <your-secretkey>
  regionendpoint: <your-endpoint>
  #encrypt: false
  #keyid: mykeyid
  #secure: true
  #skipverify: false
  #v4auth: true
  #chunksize: "5242880"
  #rootdirectory: /s3/object/name/prefix
  #storageclass: STANDARD
  #multipartcopychunksize: "33554432"
  #multipartcopymaxconcurrency: 100
  multipartcopythresholdsize: "5368709120"  \改为最大值5G

关于云原生小白

云原生小白的创号目的是将平日里离大家较远云原生应用以实用的角度展现出来,站在小白的角度来看待和使用云原生,并以每篇文章解决一个实际问题的出发点带领大家走进云原生。
[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-N7XdpifH-1602517968533)(media/16008718478624/16008786224315.jpg)]

最后

以上就是追寻砖头为你收集整理的Harbor对接Ceph S3推镜像retry的问题的全部内容,希望文章能够帮你解决Harbor对接Ceph S3推镜像retry的问题所遇到的程序开发问题。

如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。

本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
点赞(44)

评论列表共有 0 条评论

立即
投稿
返回
顶部