转载请注明出处:小锋学长生活大爆炸[xfxuezhagn.cn]

如果本文帮助到了你,欢迎[点赞、收藏、关注]哦~

目录

发现问题

问题分析

修复思路

思路一

思路二

思路二对应代码

这个问题真的找了我好久,但说起来其实也简单,就是GPU温度太高了。

问题复现视频演示:【踩坑】GPU运算使温度升高导致计算性能下降_哔哩哔哩_bilibili

发现问题

1、运行监控指令:

nvidia-smi dmon -i 00000000:41:00.0 -s pucvmet --gpm-metrics 10

2、运行你的代码,等到出问题。

3、看图就知道,密集的GPU运算,导致GPU温度达到限制了。高温限制是会影响性能的。

问题分析

本节内容来自:对于GPU显卡来说,多热算太热?

对于GPU来说,温度大致分为以下几个层次:

60°C以下 - 低温,GPU性能基本未发挥。60-75°C - 正常工作温度,GPU性能发挥良好且寿命长。75-85°C - 开始偏热,但性能基本无影响,如果长时间在此范围可能缩短服务寿命。85-95°C - 极限工作温度,性能会受影响。如果长期工作在此温度就可能锁频下降性能。95°C以上 - 非常热乃至太热,此温度下GPU性能将受很大影响,极易发生故障或损坏元件。

一般来说:

75°C以下算正常,保持这个度数(或更低)的温度应该可以让您安心,因为您的 GPU 正在发挥其最大潜力。75-85°C需要注意,保持通风以避免长期这样。85°C以上已经属于比较热了,需要改进散热或降低负荷。95°C以上就已经属于非常危险的热度域,需要立即采取措施降温。所以对GPU来说,75°C应该算做热的标准,85°C开始需要特别注意,95°C以上就可能导致不可恢复的损坏。

对GPU来说,长时间工作在85°C以上,会有以下影响:

加速老化速度。高温环境下,GPU内各个组件如芯片封装材料、焊料连接等将会以更快的速度老化和失效。故障率增加。85°C及以上的高温会促进GPU内部各种微观装配和结构性问题的暴露,从而加大故障发生概率。缩短可用年限。85°C高温下,GPU将在5-7年内即达到其可用服务寿命极限,比常温使用寿命短1-3年。锁频降级性能。为保护内部元器件,85°C时GPU极有可能自动下调时钟频率来降温,导致长期性能下降。大多数现代显卡都具有固有的热保护机制,当其内部温度过高时,该机制会导致 GPU 节流。驱动程序采取的第一步是限制性能,以减少过热 GPU 的负载。尽管采取了这些措施,如果温度继续升高,系统将开始强制关闭。这通常可以防止对 GPU 造成任何物理损坏,但如果经常发生过热,永久性硬件损坏将是不可避免的。

所以总体来说,如果GPU显卡长期工作在85°C以上高温,会明显缩短GPU的平均使用寿命,从1-3年不等,同时也影响其锁定频率和稳定性能输出,建议尽量降低和控制工作温度。

修复思路

思路一

来自对于GPU显卡来说,多热算太热?

这里是一些建议,可以帮助降低GPU的工作温度:

清除尘垢。定期清洁GPU风扇及散热片上积聚的灰尘,以保持散热效率。优化固件。检查显卡驱动是否为最新版本,更新可以改善电源管理降温。散热风扇速度。调整风扇转速提高冷风流量对GPU进行更有效的降温。流通散热。确保GPU周围有足够通风间隙,有助热空气迅速排出。改用散热板。更换散热更强的板后型显卡可以有效降温5-10°C。升级电源。GPU功耗大时需要足够功率输出的电源降温支持。温控软件。使用温控软件根据温度自动调整GPU时钟、风扇速度等。水冷模式。水冷传热效率高,能最大限度降低GPU温度。温度监测。实时了解GPU温曲线有助于查找问题热点进行改进。

以上方法结合使用可以有效帮助控制GPU的工作温度,延长使用寿命。

思路二

GPU的降温挺快的,不调用GPU运算,它的温度就会开始降低,因此可以考虑适当的降低GPU的连续使用时间。

思路二对应代码

或者,可以在运行代码前,等待GPU的问题降低到一定的程度再执行。给个自己写的参考代码吧:

def check_gpu_temperatures(gpu_ids, temp_threshold=40, timeout=None):

gpu_ids_list = gpu_ids.split(',')

start_time = time.time()

while True:

temperatures = []

all_below_threshold = True

for gpu_id in gpu_ids_list:

result = subprocess.run(['nvidia-smi', '-i', gpu_id, '--query-gpu=temperature.gpu', '--format=csv,noheader,nounits'], stdout=subprocess.PIPE)

temp = int(result.stdout.decode('utf-8').strip())

temperatures.append(f'GPU {gpu_id}: {temp}°')

if temp > temp_threshold: all_below_threshold = False

if all_below_threshold:

print('>> 当前GPU温度: ' + ' | '.join(temperatures))

break

print(f'>> 为防止GPU高温导致性能限制,等待降温中({temp_threshold}°): ' + ' | '.join(temperatures), end='\r')

if timeout and (time.time() - start_time) > timeout:

print('\n已达超时,不在等待 GPU 温度下降。')

break

time.sleep(1)

print()

用法:

gpus = '2,3,4'

check_gpu_temperatures(gpu_ids=gpus , temp_threshold=60, timeout=None)

效果:

温度监控UI代码

为了方便监控GPU的温度:

import sys

import subprocess

import threading

import time

import numpy as np

import tkinter as tk

from tkinter import ttk

from matplotlib.backends.backend_tkagg import FigureCanvasTkAgg

from matplotlib.figure import Figure

class RealtimePlot:

def __init__(self, parent, title, ylabel):

self.fig = Figure(figsize=(5, 2), dpi=100) # 设定图像尺寸

self.ax = self.fig.add_subplot(111)

self.ax.set_title(title)

self.ax.set_ylabel(ylabel)

self.ax.set_xlabel('Time')

self.xdata = []

self.ydata = []

self.line, = self.ax.plot(self.xdata, self.ydata, 'r-')

self.canvas = FigureCanvasTkAgg(self.fig, master=parent)

self.canvas.draw()

self.canvas.get_tk_widget().pack(side=tk.LEFT, fill=tk.BOTH, expand=1)

def update_plot(self, y):

self.xdata.append(time.time())

self.ydata.append(y)

if len(self.xdata) == 1: # 防止 transformation singular 错误

self.ax.set_xlim(self.xdata[0], self.xdata[0] + 1)

else:

self.ax.set_xlim(self.xdata[0], self.xdata[-1])

self.line.set_xdata(self.xdata)

self.line.set_ydata(self.ydata)

self.ax.relim()

self.ax.autoscale_view()

self.canvas.draw()

def resize(self, event):

self.fig.set_size_inches(event.width / self.canvas.get_tk_widget().winfo_fpixels('1i'),

event.height / self.canvas.get_tk_widget().winfo_fpixels('1i'))

self.canvas.draw()

class GPU_MonitorApp:

def __init__(self, root):

self.root = root

self.root.title("nvidia-smi dmon Realtime Plot")

self.plots = []

gpu_ids = ['00000000:3d:00.0', '00000000:3e:00.0', '00000000:1D:00.0', '00000000:1E:00.0', '00000000:41:00.0']

main_frame = tk.Frame(root)

main_frame.pack(fill=tk.BOTH, expand=1)

canvas = tk.Canvas(main_frame)

canvas.pack(side=tk.LEFT, fill=tk.BOTH, expand=1)

scrollbar_y = tk.Scrollbar(main_frame, orient=tk.VERTICAL, command=canvas.yview)

scrollbar_y.pack(side=tk.RIGHT, fill=tk.Y)

scrollbar_x = tk.Scrollbar(root, orient=tk.HORIZONTAL, command=canvas.xview)

scrollbar_x.pack(side=tk.BOTTOM, fill=tk.X)

canvas.configure(yscrollcommand=scrollbar_y.set, xscrollcommand=scrollbar_x.set)

canvas.bind('', lambda e: canvas.configure(scrollregion=canvas.bbox("all")))

second_frame = tk.Frame(canvas)

canvas.create_window((0, 0), window=second_frame, anchor="nw")

plot_width = 500 # 每个图的宽度(以像素为单位)

plot_height = 200 # 每个图的高度(以像素为单位)

for i, gpu_id in enumerate(gpu_ids):

frame = ttk.Frame(second_frame, width=plot_width * 2, height=plot_height)

frame.pack(side=tk.TOP, fill=tk.BOTH, expand=1)

plot_power = RealtimePlot(frame, f"GPU {i} Power Usage", "Power (W)")

plot_temp = RealtimePlot(frame, f"GPU {i} Temperature", "Temperature (C)")

self.plots.append((plot_power, plot_temp))

frame.bind("", plot_power.resize)

frame.bind("", plot_temp.resize)

# 计算窗口初始尺寸

window_width = plot_width * 2 + 40 # 两个图表并排 + 滚动条和边距

window_height = plot_height * len(gpu_ids) + 40 # 每个GPU占一行 + 滚动条和边距

self.root.geometry(f"{window_width}x{window_height}")

self.start_monitoring(gpu_ids)

def start_monitoring(self, gpu_ids):

self.monitor_thread = threading.Thread(target=self.monitor_gpu, args=(gpu_ids,))

self.monitor_thread.daemon = True

self.monitor_thread.start()

def monitor_gpu(self, gpu_ids):

command = ['nvidia-smi', 'dmon', '-i', ','.join(gpu_ids), '-s', 'pm']

process = subprocess.Popen(command, stdout=subprocess.PIPE, stderr=subprocess.PIPE, text=True)

skip_header = True # 用于跳过表头

for line in process.stdout:

try:

if skip_header:

if line.startswith('#'):

continue # 跳过表头行

skip_header = False

parts = line.split()

if len(parts) == 0 or parts[0] == '#':

continue # 跳过表头或空行

if len(parts) >= 7 and parts[0].isdigit(): # 确保行数据完整

gpu_idx = int(parts[0])

if gpu_idx < len(gpu_ids):

gpu_power = float(parts[1]) if parts[1] != '-' else None

gpu_temp = float(parts[2]) if parts[2] != '-' else None

print(f"GPU {gpu_idx} power: {gpu_power}, temp: {gpu_temp}") # Debug info

if gpu_power is not None:

self.plots[gpu_idx][0].update_plot(gpu_power)

if gpu_temp is not None:

self.plots[gpu_idx][1].update_plot(gpu_temp)

except Exception as e:

print(f"Error parsing line: {line}\n{e}")

if __name__ == '__main__':

root = tk.Tk()

app = GPU_MonitorApp(root)

root.mainloop()