На апрельской конференции 2009 Google Data Center Efficiency Summit («Эффективность дата-центров Google») в Маунтин-Вью (шт. Калифорния) корпорация Google раскрыла несколько «секретов», касающихся ее центров обработки данных (ЦОД). Как известно, «сердце» дата-центра — его ИТ-оборудование. Стоит сразу отметить, что Google использует не стандартные, а фирменные серверы, архитектура которых разработана еще в 2005 г. (сейчас это уже шестое или седьмое поколение подобных компьютеров).
Корпус сервера для размещения в стойке имеет высоту 2U (3,5 дюйма). На модернизированной системной плате производства тайваньской компании Gigabyte размещаются два процессора, два накопителя на жестких дисках и восемь разъемов для установки модулей памяти. Google использует процессоры х86 и не делает преференций для какого-либо производителя микросхем, устанавливая на платах кристаллы как от Intel, так и от AMD.
Материнская плата Gigabyte GA-9IVDP сделана на заказ
для Google и недоступна для отдельного приобретения
Основная «изюминка» сервера Google – его блок питания, который преобразует входное напряжение переменного тока (110 В) только в одно выходное напряжение питания постоянного тока – 12 В. Требуемые для некоторых компьютерных компонентов значения 5 В и 3,3 В преобразуются из 12 В постоянного тока прямо на системной плате(!). Несмотря на то что модернизация системной платы увеличивает ее стоимость примерно на 1-2 долл., итоговое увеличение энергоэффективности с лихвой покрывает эти издержки. Дело в том, что в системном блоке каждого сервера размещен собственный мини-ИБП с аккумулятором на 12 В. По заверениям сотрудников корпорации, такая конструкция повышает эффективность с 92–95% в случае обычных ИБП до 99,9%. Google получила патент на используемый источник питания (снабженный аккумулятором), однако пока не удосужилась дать на него лицензию другим производителям.
Серверы Google устанавливаются в стойки, которые монтируются в стандартные 40-футовые морские контейнеры 1AAA (40х8х9,6 футов) с максимальной загрузкой 30,48 т. Эти контейнеры, в свою очередь, устанавливаются в специальном ангаре – серверной ферме. На представленной в презентации ферме сейчас находится 45 контейнеров. В одном таком контейнере может разместиться до 1160 серверов при потребляемой мощности 250 КВт.ч. Обеспечивается удельная мощность 780 Вт на квадратный фут, при этом рабочая температура в «холодном» проходе может достигать 27,2°С. Для охлаждения оборудования в контейнерах применяется вода и вентиляторы с переменной скоростью вращения.
Как известно, контейнерные дата-центры в течение нескольких лет с успехом используют американские военные:
Морской дата-центрНедавно Google получила патент на дата-центр морского базирования, который использует энергию океана для получения электричества и охлаждения. При этом не нужно платить налог на собственность и недвижимость. Такой ЦОД размещается в контейнерах (до 12 штук) на судне, находящемся в нейтральных водах, примерно в 3–7 морских милях от берега. При использовании семи генерирующих модулей WEC (Wave Energy Converter) мощностью 5 МВт, на которые ориентируется Google, общую энергоемкость такого дата-центра можно довести до 40 МВт. Патентная документация также описывает охлаждающую систему на основе насосов, приводимых в движение энергией волн, и теплообменников, преобразующих морскую воду в пресную.
Google уделяет очень большое внимание своим дата-центрам, о которых в прессу просачиваются лишь обрывочные данные. По различным данным количество физических серверов Google за период с июня 2005 г. по октябрь 2009 г. выросло со 100 тыс. до 3 млн., причем они размещаются на 25 серверных фермах (дата-центрах) по всему миру. Немало сил тратит корпорация и на расширение своей сети дата-центров в Европе. Один из крупнейших ЦОД Google за пределами США расположен в Бельгии; кроме того, в прошлом году корпорация приобрела под строительство фермы участок в Австрии.