The OpenNET Project / Index page

[ новости /+++ | форум | wiki | теги | ]

Доступен дистрибутив Scientific Linux 7.2

06.02.2016 07:14

Представлен релиз дистрибутива Scientific Linux 7.2, построенного на пакетной базе Red Hat Enterprise Linux 7.2 и дополненного средствами, ориентированными на использование в научных учреждениях. Дистрибутив поставляется для архитектуры x86_64, в форме DVD-сборок (4.1 Гб и 7.1 Гб), сокращённого образа для установки по сети (359 Мб), LiveCD (694 Мб) и LiveDVD с окружениями KDE (1.7 Гб) и GNOME (1.5 Гб).

Изменения от RHEL в основной массе сводятся к ребрендингу и чистке привязок к службам Red Hat. Специфичные для научного применения приложения, а также дополнительные драйверы, предлагаются для установки из внешних репозиториев, таких как EPEL, elrepo.org и atrpms.net.

Основные особенности Scientific Linux 7.2:

  • Файлы с конфигурацией внешних репозиториев (EPEL, ELRepo, SL-Extras, SL-SoftwareCollections, ZFSonLinux) перемещены в централизованное хранилище, так как данные репозитории не специфичны для конкретных выпусков и могут использоваться с любыми версиями Scientific Linux 7. Для загрузки данных о репозиториях следует выполнить "yum install yum-conf-repos", а затем настроить отдельные репозитории, например, "yum install yum-conf-epel yum-conf-zfsonlinux yum-conf-softwarecollections yum-conf-hc yum-conf-extras yum-conf-elrepo" ;
  • В состав установочных образов добавлен плагин yum-fastest-mirror, который определяет наиболее быстрое зеркало для установки с загрузкой пакетов по сети;
  • Представлена начальная поддержка контекстов (Scientific Linux Context Framework), упрощающих создание специализированных сборок дистрибутива и локальных конфигураций с дополнительными приложениями для выполнения специфичных вычислений;
  • OpenAFS, открытая реализация распределенной ФС Andrew File System, обновлена до версии 1.6.16;
  • Изменено поведение yum: бэкпортирован патч для "yum fs-vars", при котором переменные yum проверяются в директории /etc/yum/vars даже при выборе альтернативного корневого пути (yum-root).
  • Изменены пакеты с IPA, из которых удалены ссылки на связанные с ними внешние сервисы;
  • Пакеты curl и mariadb изменены для успешного прохождения unit-тестов;
  • Расширена поддержка загрузки на системах с UEFI Secure Boot. Входящий в состав загрузчик подписан собственным ключом дистрибутива, а не типовым ключом, воспринимаемым прошивками, что требует дополнительных ручных манипуляций для организации загрузки (добавление ключа в прошивку);
  • Поддержка репозиториев ZFS on Linux, из которых можно установить модуль ядра Linux с реализацией файловой системы ZFS;
  • Для автоматической установки обновлений задействована система yum-cron, вместо yum-autoupdate. По умолчанию обновления применяются автоматически с последующей отправкой уведомления пользователю. Для изменения поведения на этапе автоматизированной установки, подготовлены пакеты SL_yum-cron_no_automated_apply_updates (запрещает автоматическую установку обновлений) и SL_yum-cron_no_default_excludes (разрешает установку обновлений с ядром);
  • Добавлен пакет SL_gdm_no_user_list, отключающий отображение списка пользователей в GDM при необходимости соблюдения более строгой политики безопасности;
  • Добавлен пакет SL_enable_serialconsole для настройки консоли, работающей через последовательный порт;
  • Добавлен пакет SL_no_colorls, отключающий цветной вывод в ls;
  • Внесены изменения в пакеты, в основном связанные с ребрендингом: anaconda, dhcp, grub2, httpd, ipa, kernel, libreport, PackageKit, pesign, plymouth, redhat-rpm-config, shim, yum;
  • По сравнению с веткой Scientific Linux 6.x из базового состава исключены пакеты alpine, SL_desktop_tweaks, SL_password_for_singleuser, yum-autoupdate, yum-conf-adobe, thunderbird (доступен в репозитории EPEL7).


  1. Главная ссылка к новости (http://listserv.fnal.gov/scrip...)
  2. OpenNews: Выпуск дистрибутива Scientific Linux 6.7
  3. OpenNews: Увидел свет дистрибутив Scientific Linux 7.1
  4. OpenNews: Увидел свет дистрибутив Scientific Linux 7.0
  5. OpenNews: Увидел свет дистрибутив CentOS 7.1511, основанный на RHEL 7.2
  6. OpenNews: Релиз Red Hat Enterprise Linux 7.2 с обновлённым рабочим столом GNOME
Лицензия: CC-BY
Тип: Программы
Короткая ссылка: https://opennet.ru/43827-scientific
Ключевые слова: scientific, linux
При перепечатке указание ссылки на opennet.ru обязательно
Обсуждение (23) Ajax | 1 уровень | Линейный | +/- | Раскрыть всё | RSS
  • 1.1, Меломан1 (?), 12:23, 06/02/2016 [ответить] [﹢﹢﹢] [ · · · ]  
  • –5 +/
    >ZFSonLinux

    Если бы не бюрократия в сообществе Линукс уже давно бы пользовались ZFS, pNFS, SMB3. Линукс на расхват бы был.

     
     
  • 2.3, Аноним (-), 13:05, 06/02/2016 [^] [^^] [^^^] [ответить]  
  • +/
    Ага так и представил, wine-setup.exe))
     
     
  • 3.5, Меломан1 (?), 13:55, 06/02/2016 [^] [^^] [^^^] [ответить]  
  • +2 +/
    > Ага так и представил, wine-setup.exe))

    Жаль, что вы не работали с СХД и ОС Соларис. Релиз FreeBSD 11  можно будет использовать в качестве сторадж-сервера, т.к  он будет включать полную поддержку опций ZFS, pNFS и SMB3.
    Линукс же в этом плане отдыхает.


     
     
  • 4.7, commiethebeastie (ok), 14:51, 06/02/2016 [^] [^^] [^^^] [ответить]  
  • +4 +/
    Так и вижу этот нарасхват freebsd и solaris, пойду synology расскажу, а то поцаны и не знали.
     
     
  • 5.12, Аноним (-), 15:44, 06/02/2016 [^] [^^] [^^^] [ответить]  
  • –1 +/
    > Так и вижу этот нарасхват freebsd и solaris, пойду synology расскажу, а
    > то поцаны и не знали.

    Solaris хоть и не нарасхват, но ряд крупных ынтерпрайз проектов по облачному хостингу базируется именно на солярисе, причём выбран именно солярис, а не линукс. Связка ZFS+COMSTAR+Zones+KVM+Crossbow-оказывается, согласно тестам, наилучшей платформой для среды виртуализации по производительности, надёжности и удобству деплоймента.

     
     
  • 6.28, Sabakwaka (ok), 23:16, 06/02/2016 [^] [^^] [^^^] [ответить]  
  • +/
    Синолоджа это кал.
     
     
  • 7.33, test (??), 18:23, 08/02/2016 [^] [^^] [^^^] [ответить]  
  • –1 +/
    Поддержу, Синолоджи подходит только для бэкапа. Нагрузку держать не может

    Solaris+ZFS+Comstar рулит

     
     
  • 8.35, _ (??), 21:52, 08/02/2016 [^] [^^] [^^^] [ответить]  
  • –1 +/
    если есть толковый солярщик, кто настроит Я, к примеру, напрыгался вдоволь,... текст свёрнут, показать
     
  • 5.22, Меломан1 (?), 19:02, 06/02/2016 [^] [^^] [^^^] [ответить]  
  • –3 +/
    >synology

    Что за вата? Я говорю про NetApp и Oracle ZFS Storage.
    А FreeBSD может реально потеснить этих вендоров, учитывая, что  JBOD корзины сейчас копейки стоят.

     
     
  • 6.32, 1 (??), 10:03, 08/02/2016 [^] [^^] [^^^] [ответить]  
  • –1 +/
    А что стоит в NetApp, как не модифицированная BSD ?
     
  • 4.10, maximnik0 (?), 15:13, 06/02/2016 [^] [^^] [^^^] [ответить]  
  • +/
    > 11  можно будет использовать в качестве сторадж-сервера, т.к  он
    > будет включать полную поддержку опций ZFS, pNFS и SMB3.
    > Линукс же в этом плане отдыхает.

    Позвольте поинтересоваться -что у Линуксa не так с SMB3 ? Ну кроме того что до фига бета и эксперементал кода , учитываем что многие фичи 3 версии  и винда нормально не поддерживает кроме серверных редакций ?

     
     
  • 5.16, Stax (ok), 16:42, 06/02/2016 [^] [^^] [^^^] [ответить]  
  • +1 +/
    > Позвольте поинтересоваться -что у Линуксa не так с SMB3 ? Ну кроме того что до фига бета и эксперементал кода , учитываем что многие фичи 3 версии  и винда нормально не поддерживает кроме серверных редакций ?

    Ну вообще-то интересует поддержка реально полезных фич, например работы SMB Multichannel - поддерживается даже десктопной виндой, позволяет получить поток в несколько гигабит между единственным клиентом и серверов (а не от сервера до многих клиентов в сумме) по гигабитному bonding'ингу. Что весьма актуально в некоторых условиях, т.к. цены на 10GbE все еще неподъемные для линков на нем до клиентов.

    Впрочем, для 10GbE линка это тоже актуально, т.к. без него один TCP-поток кладет обрабатывающее его ядро на клиенте и на сервере, а несколько потоков равномерно распределяют нагрузку.

    С такой фичей я бы и linux<-> linux кое-где на SMB перевел, где нужна скорость, а 10GbE внедрить нет возможности, т.к. NFS такого не умеет и обучаться не собирается, а pNFS это уход в несколько иное направление (и не шибко востребованное, как легко заметить из его популярности - на конфигурациях, где можно было бы его внедрить, перешли на технологии другого уровня типа hadoop и ceph. Слишком уж дорого POSIX-совместимость обходится в таких условиях. Но в рамках SMB3, внезапно, получилось это сделать и работает на удивление - я серьезно! - пристойно).

     
     
  • 6.23, Anonymous1 (?), 19:09, 06/02/2016 [^] [^^] [^^^] [ответить]  
  • –2 +/
    >>работы SMB Multichannel - поддерживается даже десктопной виндой, позволяет получить поток в несколько гигабит между единственным клиентом и серверов (а не от сервера до многих клиентов в сумме) по гигабитному bonding'ингу

    То есть ситуация, когда есть Linux сервер с 4х1ГБ интерфейсами и Windows клиент с 4х1Гб интерфейсами, и Вам нужно поток между ними выше чем 1 Гб/с? Месье знает толк в извращениях, похоже...
    А просто добавить в каждый сервер по 1 10G карточке и соединить их медным кабелем никак не? По деньгам не весьма дорого, разве что не более 5 м между серверами.

    >>Впрочем, для 10GbE линка это тоже актуально, т.к. без него один TCP-поток кладет обрабатывающее его ядро на клиенте и на сервере, а несколько потоков равномерно распределяют нагрузку.

    Вот и объяснение. Если 10G поток кладет ядро на клиенте и на сервере, то я бы не стал ускорять сеть вообще до решения этой проблемы.

    Не знаю, у меня были проблемы именно с bonding'ингом, и с переходом на 10G они благополучно закончились. Я маршрутизировал 2-3 гигабитных внешних потока и маршрутизатор подключал к внутренней сети через 4 гигибитных интерфейса с bonding'ингом.


    Кстати, какой-нибудь Microtic Cloud switch за 28 тыс. деревянных имеет 24х1Гб порта и 2х10ГБ SFP+ порта. И, по-моему, сетевая карта 10G с одним SFP+ портом где-то 18 тыс, и медяшка SFP+ 4-5 тыс. за 5 метров. Но больше 8 портов, по-моему, в транк на этом свитче не объединить. Это если нужно 100м между серверами...

     
     
  • 7.26, Stax (ok), 21:48, 06/02/2016 [^] [^^] [^^^] [ответить]  
  • +/
    > А просто добавить в каждый сервер по 1 10G карточке и соединить их медным кабелем никак не? По деньгам не весьма дорого, разве что не более 5 м между серверами.

    Вы совсем другой кейз обсуждаете. В стойке с серверами перейти на 10 GbE можно. Когда сервер и клиент не в одной стойке, сеть уже проложена и скорости не хватает - внедрение 10 GbE очень дорого.

    > Кстати, какой-нибудь Microtic Cloud switch за 28 тыс. деревянных имеет 24х1Гб порта и 2х10ГБ SFP+ порта

    Это не решает проблемы, если бы там был десяток 10GBase-T портов по приемлимой цене - другое дело.

    Сейчас (как и пару лет назад) по SFP+ и в рамках стойки 10GbE пустить-то можно, а вот соединять им что-то большее стоит совершенно других (в разы больших) денег. И неочевидно, что разумные по деньгам решения появятся (есть надежда на новые стандарты 2.5G и 5G, но кто знает, исправят ли они ситуацию).

    > Вот и объяснение. Если 10G поток кладет ядро на клиенте и на сервере, то я бы не стал ускорять сеть вообще до решения этой проблемы.

    Эээ. Еще раз. Ядро кладет тред, обрабатывающий SMB (на клиенте и сервере), обрабатывающий этот поток (на скоростях, приближающимся к 10G). Это *решили* как раз расширением Multichannel, позволяющим одному клиенту работать с сервером через несколько TCP-потоков и разгрузить обработку и там, и там по тредам. Проблема как раз в том, что Samba это не умеет :) Во всяком случае, пока.

     
  • 6.25, maximnik0 (?), 20:31, 06/02/2016 [^] [^^] [^^^] [ответить]  
  • +/
    > Ну вообще-то интересует поддержка реально полезных фич, например работы SMB Multichannel
    > - поддерживается даже десктопной виндой, позволяет получить поток в несколько гигабит
    > между единственным клиентом и серверов (а не от сервера до многих
    > клиентов в сумме) по гигабитному bonding'ингу. Что весьма актуально в некоторых
    > условиях, т.к. цены на 10GbE все еще неподъемные для линков на
    > нем до клиентов.

    C SMB Multichannel  как утверждает журнал Системный администратор не все хорошо с безопасностью ,и преодически M$ иногда отключал эту фичу на десктопной винде .Вдобавок у многих сетевых карточек в винде в  тонких настройках протоколов тоже по какой-то причине потдержку по умолчанию  этой фичи блокируют :-(

     
  • 5.24, Меломан1 (?), 19:10, 06/02/2016 [^] [^^] [^^^] [ответить]  
  • +/
    >> 11  можно будет использовать в качестве сторадж-сервера, т.к  он
    >> будет включать полную поддержку опций ZFS, pNFS и SMB3.
    >> Линукс же в этом плане отдыхает.
    > Позвольте поинтересоваться -что у Линуксa не так с SMB3 ? Ну кроме
    > того что до фига бета и эксперементал кода , учитываем что
    > многие фичи 3 версии  и винда нормально не поддерживает кроме
    > серверных редакций ?

    У Линукса огромные провалы производительности в NFS и SMB. У FreeBSD до 10 версии с NFS и SMB проблемы были, по NFS уступала даже Windows Server 2012.


     
     
  • 6.36, _ (??), 21:57, 08/02/2016 [^] [^^] [^^^] [ответить]  
  • +1 +/
    > У Линукса огромные провалы производительности в NFS и SMB. У FreeBSD до
    > 10 версии с NFS и SMB проблемы были, по NFS уступала даже Windows Server 2012.

    TREPLO

     

  • 1.4, Аноним (-), 13:43, 06/02/2016 [ответить] [﹢﹢﹢] [ · · · ]  
  • +2 +/
    > http://listserv.fnal.gov/scripts/wa.exe?A2=scientific-linux-announce;b78f1deb
    > Scientific Linux
    > Linux wa.exe
     
  • 1.6, Dimez (??), 14:32, 06/02/2016 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    atrpms умер.
     
  • 1.14, grsec (ok), 16:34, 06/02/2016 [ответить] [﹢﹢﹢] [ · · · ]  
  • –1 +/
    OpenAFS кто-то использует?
     
     
  • 2.21, Аноним (-), 18:15, 06/02/2016 [^] [^^] [^^^] [ответить]  
  • +/
    > OpenAFS кто-то использует?

    Кирилл, перелогинтесь.


     
  • 2.31, fi (ok), 18:54, 07/02/2016 [^] [^^] [^^^] [ответить]  
  • +1 +/
    «CERN» - так устроит?
     
     
  • 3.37, SysA (?), 14:43, 09/02/2016 [^] [^^] [^^^] [ответить]  
  • +/
    > «CERN» - так устроит?

    + UK GridPP

     

     Добавить комментарий
    Имя:
    E-Mail:
    Текст:



    Спонсоры:
    Inferno Solutions
    Hosting by Hoster.ru
    Хостинг:

    Закладки на сайте
    Проследить за страницей
    Created 1996-2021 by Maxim Chirkov
    Добавить, Поддержать, Вебмастеру