kubernetes ContainerStatus imageID不一致/文档不完整

htzpubme  于 5个月前  发布在  Kubernetes
关注(0)|答案(8)|浏览(129)

发生了什么?

在运行不同CRI实现(或具有不同配置的相同CRI实现)的集群上,ContainerStatus上的imageID属性似乎不一致,这使得无法实际判断正在使用的容器镜像。
在GKE上,imageID是一个仓库摘要,尽管通常是指向一个“胖镜像”,所以要弄清楚实际使用的容器,您需要检查节点架构。

- containerID: containerd://6eed9a2af53b5a56f39328fe1349395e56a0d01b443780a5d3ded56c3690a7e5
    image: gke.gcr.io/k8s-dns-kube-dns:1.22.12-gke.0
    imageID: gke.gcr.io/k8s-dns-kube-dns@sha256:b18b51683f6633979434a24ca2341e3b6bab8af0167b1be6b43f901aa615b38e

在Kind上,它似乎实际上是从图像配置对象中获取的Image ID,因此在容器注册表上无法解析,只能希望image属性不会指向一个移动目标,然后匹配解析后的图像的Image ID。

- containerID: containerd://058f852ac99502198092865c214c548c871f20e1ac5d9c9e75b2f4ae4ed9622c
    image: registry.k8s.io/coredns/coredns:v1.9.3
    imageID: sha256:b19406328e70dd2f6a36d6dbe4e867b0684ced2fdeb2f02ecb54ead39ec0bac0
$ docker image inspect registry.k8s.io/coredns/coredns:v1.9.3 | jq .[0].Id
"sha256:b19406328e70dd2f6a36d6dbe4e867b0684ced2fdeb2f02ecb54ead39ec0bac0"

该字段仅被记录为“容器镜像的ImageID”。这是不够的,如果字段的内容是有意的实现依赖项,应该进行更改。

您期望发生什么?

imageID具有可预测的行为,理想情况下可以用于识别确切使用的镜像(仓库摘要或单架构清单摘要)。

我们如何尽可能精确地重现它?

kind create cluster
获取任何pod
拉取相同的镜像,比较imageID提供的配置和清单

我们需要了解其他信息吗?

  • 无响应*

Kubernetes版本

CRI问题。

云提供商

多个。

OS版本

  • 无响应*

安装工具

  • 无响应*

容器运行时(CRI)和版本(如适用)

多个。

相关插件(CNI,CSI等)和版本(如适用)

qc6wkl3g

qc6wkl3g2#

即使我们在这里改变了行为,记录当前的行为并首先合并这些细节也是很好的。这样一来,它就会被记录在旧版本的文档中。

nqwrtyyt

nqwrtyyt4#

这可能会帮助文档:#115463
此外,这个#94833将改变行为。

hgc7kmma

hgc7kmma5#

/triage已接受
更好的文档确实会更好。

tvmytwxo

tvmytwxo6#

这个问题已经超过一年没有更新了,应该重新进行优先级评估。
你可以:

  • 确认这个问题仍然与 /triage accepted (仅组织成员)相关
  • /close 关闭这个问题

有关优先级评估过程的更多详细信息,请参见 https://www.kubernetes.dev/docs/guide/issue-triage/
已接受移除优先级评估

bjp0bcyl

bjp0bcyl7#

Kubernetes项目目前缺乏足够的贡献者来充分应对所有问题。
此机器人根据以下规则对未分类的问题进行分级处理:

  • lifecycle/stale应用后的90天内无活动,将应用lifecycle/stale
  • lifecycle/stale应用后的30天内无活动,将应用lifecycle/rotten
  • lifecycle/rotten应用后的30天内无活动,将关闭该问题

您可以:

  • 使用/remove-lifecycle stale标记此问题为新鲜
  • 使用/close关闭此问题
  • 提供帮助,使用Issue Triage

请将反馈发送至sig-contributor-experience@kubernetes/community
/lifecycle stale

pkmbmrz7

pkmbmrz78#

Kubernetes项目目前缺乏足够的活跃贡献者来充分应对所有问题。
此机器人根据以下规则对未分类的问题进行分级处理:

  • lifecycle/stale应用后的90天内无活动,将应用lifecycle/stale
  • lifecycle/stale应用后的30天内无活动,将应用lifecycle/rotten
  • lifecycle/rotten应用后的30天内无活动,将关闭该问题

您可以:

  • 使用/remove-lifecycle rotten标记此问题为新鲜
  • 使用/close关闭此问题
  • 提供帮助,使用Issue Triage

请将反馈发送至sig-contributor-experience@kubernetes/community
/lifecycle rotten

相关问题