虽然电源的要求一直在稳步增加,但需要解决空间和热限制的需要更加重要,对现代连接器设计更加重要。
由Ken Stead提供贡献,主任,电力产品,Molex
今天,全球,每分钟进行近9000万互联网交易,或每秒150万出现。所有这些电子邮件,应用程序下载,视频流,社交媒体互动,零售购买以及更多通过全球数据中心的网络处理。这些数据中心包含由交换机,路由器和冷却设备的网络支持的100,000台服务器 - 所有这些都依赖于越来越多的电力。
Molex 3 KW Power I / O可以在60-80-100-150中提供多种配置,每个与信号引脚选项接触。
随着美国数据中心的用电量预计每5年翻一番,数据中心的业主越来越关注用电量的增长,而电力公司必须按需提供电力,而政府官员则担心大量发电所带来的广泛影响。
通过相同的网格向数据中心提供电力,这些网格为家庭和企业提供权力;然而,虽然大家通常在220 v处获得电力,但数据中心必须收到数千伏以适应运行驾驶互联网的计算能力的核心所需的大量电力。
转换和分配
数据中心使用一种称为电力单元效率(PUE)的度量来评估电力体系结构的效率。PUE是数据中心的总供电功率除以关键负载(服务器)的供电功率,理想PUE为1.0。例如,PUE为1.7意味着每向负荷输送一瓦特,0.7在功率分配和冷却中损失。2018年,数据中心报告的PUE水平约为1.6。
机架本身发生了最关键的转换之一。计算电源需要数以千计的服务器。除了服务器外,还有交换机,可以在服务器和服务器之间管理通信到外部世界。
散装电源被送到包含30至35个1U服务器的机架,这些服务器越来越多地由3 kW电源单元(PSU)提供动力。这些PSU通常位于机架的底部,将电源转换为各种电压电平的轨道。在208 VDC下进入PSU的电源转换为3.3-,5比和12V轨,以满足服务器和交换机内不同组件的需求,例如具有处理器,适配器和视频卡,PCIe和Memory的主板。
此外,机架包含大量的风扇,需要提供冷却气流。传送到服务器的大部分能量被转换为热量。作为转换过程的自然部分发生这种热量损失,因为电源从AC转换为DC和DC至DC。
空间的挑战
在包装空间和热管理方面,管理这种越来越多的权力导致了重大挑战。虽然电源的要求已经稳步增加,但后退的供电和关键连接器分配的空间没有改变。返回服务器开发的早期日期,服务器系统基础架构(SSI)要求要求400到600 W电源,电源I / O将使用每刀片30级的四到六个电源刀片,以提供所需的电源到服务器。如今,Connector公司被要求提供电源I / O以携带三倍的电流在同一空间中。
基准规范可能呼叫六到八个电源刀片,其能够处理70至80的每刀片,产生不超过30个温度升高(或T升)。评定这些电源连接器时,测量电流是简单的。然而,测量T-上升变得复杂。连接器内的热电偶的位置等问题可以影响温度测量。在具有铜层的PSU PCB设计中考虑,层厚度和占地面积可以有助于温度升高。通常在热评估期间,可以目睹从PCB转移到连接器的热量,导致适当平衡的讨论,因为连接器供应商尤其不具有连接器作为散热器。
获得密度
连接器设计人员现在被迫提出创造性解决方案来管理热量和电流。虽然在连接器的评级中,气流不能被考虑,但现在通常被设计入壳体中以允许热量逸出并防止过热。
基础物理学告诉我们,要携带更多的电流,你只需要更多的铜。在铜合金中进行进展,以允许增加的电导率,但这些进步不会跟上对更高电流密度的需求。同样,接触设计的改进可以改善PSU与连接点之间的界面中的典型功率损失,无论是互连的交配一半还是有时是PCB卡边缘,但不能依赖这些改进来提供重要电流密度收益。
客户现在要求连接器设计人员减少电源触点之间的中心线间距;然而,降低间隔导致PCB占地面积和连接器本身的相互加热问题。
在过去的40年里,连接器开发以更高的密度为中心。然而,该行业正在接近它必须考虑添加更多空间的点,以便更多的电力或检查用于评估和速率连接器性能的约定。据信,数据中心电效率的提高仅为1%,以节省数百万美元。在数据中心所有者,电气公用事业提供者和政府官员之间,潜在节省重大,积极和热闹的讨论肯定会继续存在一段时间。
Molex Inc.
www.molex.com.
提交:连接器(电气)•压接技术





告诉我们你的想法!