Документ взят из кэша поисковой машины. Адрес оригинального документа : http://theory.sinp.msu.ru/pipermail/ru-ngi/2012q1/000421.html
Дата изменения: Mon Mar 12 09:11:56 2012
Дата индексирования: Tue Oct 2 03:16:46 2012
Кодировка:
[RU-NGI] ATLAS_LOCAL_AREA при переходе на CVMFS

[RU-NGI] ATLAS_LOCAL_AREA при переходе на CVMFS

Valery Mitsyn vvm at mammoth.jinr.ru
Tue Feb 21 19:09:18 MSK 2012


Вопрос был в том, что после _каждой_ переконфигурации yaim,
надо вставлять переменную руками. На все вопросы о том,
как поменять что-то на сервисе glite/emi/umd разработчики
отвечают: переконфигурируйте через yaim.

On Tue, 21 Feb 2012, Minaenko Andrey wrote:

>  Добрый день всем,
> в своё время NFS shared area для ПО АТЛАСа занимала более 300 ГБ. Так что, я 
> думаю, кэш в Т2 сайте д.б. никак не меньше 100 ГБ. Не надо на этом 
> экономить,

  Если учесть, что у нас 270 машин, то ~27TB на кэш не сильно много?
300ГБ и 27000ГБ довольно существенно отличаются.
  Кажется:
# cvmfs quota for the _every_ repo
CVMFS_QUOTA_LIMIT=10000
и никого не напрягает.

> ведь при недостаточном размере кэша эффективность работы всей 
> фермы может уменьшиться.
>   Андрей.
> P.S. Алессандро сегодня попросил Владимира переопределить переменную 
> ATLAS_LOCAL_AREA  с "/opt/exp_soft/atlas" на "/opt/exp_soft/atlas/local". 
> М.б. и всем остальным это стоит сделать аналогично, соответственно 
> переместив содержимое.

  Зачем? Если и так все работает.

>
> -----Original Message----- From: Victor Kotlyar
> Sent: Tuesday, February 21, 2012 4:09 PM
> To: Valery Mitsyn
> Cc: ru-ngi at theory.sinp.msu.ru
> Subject: Re: [RU-NGI] ATLAS_LOCAL_AREA при переходе на CVMFS
>
> Могу ещё сказать, для выставления размера кэша.
>
> У нас /cvmfs/atlas.cern.ch в среднем 23G сейчас использует при работе
> сайта с CVMFS месяца три.
>
> Может быть пригодится.
>
> Виктор
>
> on 21.02.2012 19:01, Valery Mitsyn wrote:
>> On Tue, 21 Feb 2012, Vladimir Tikhomirov wrote:
>> 
>>> Добрый день.
>>> А вот, между прочим: я попробовал вставить задание переменной
>>> ATLAS_LOCAL_AREA
>>> в site-info.def, но она после yaim -c -s... в grid-env.sh не встала
>>> (видимо, yaim просто
>>> не знает о такой переменной?). Я, конечно, могу ее вставить в grid-env.sh
>>> руками, но
>>> ведь это до следующего переконфигурирования?
>> 
>> Совершенно верно подмечено.
>> 
>>> Всего наилучшего,
>>> Владимир.
>>> -----------------
>>> 11 января 2012 г. 23:11 пользователь Yevgeniy Lyublev <lublev at itep.ru>
>>> написал:
>>> 
>>> Нормально, спрашивайте, что смогу - отвечу.
>>> squid == frointer сервер - это одно и то же.
>>> CVMFS server ставить не нужно, он в CERNe.
>>> на WNs -
>>> yum install cvmfs cvmfs-init-scripts cvmfs-auto-setup
>>> в инструкции вроде все нормально прописано про порядок
>>> инсталляции.
>>> Для VO надо подправить CONSTs_SW_DIR -
>>> grid-env.sh:gridenv_set "VO_PHOTON_SW_DIR"
>>> "/opt/exp_software/photon"
>>> grid-env.sh:gridenv_set "VO_OPS_SW_DIR" "/opt/exp_software/ops"
>>> grid-env.sh:gridenv_set "VO_LHCB_SW_DIR" "/cvmfs/lhcb.cern.ch"
>>> grid-env.sh:gridenv_set "VO_LATTICE_ITEP_RU_SW_DIR"
>>> "/opt/exp_software/lattice"
>>> grid-env.sh:gridenv_set "VO_HONE_SW_DIR" "/opt/exp_software/hone"
>>> grid-env.sh:gridenv_set "VO_DTEAM_SW_DIR"
>>> "/opt/exp_software/dteam"
>>> grid-env.sh:gridenv_set "VO_CMS_SW_DIR" "/opt/exp_software/cms"
>>> grid-env.sh:gridenv_set "VO_ATLAS_SW_DIR"
>>> "/cvmfs/atlas.cern.ch/repo/sw"
>>> grid-env.sh:gridenv_set "VO_ALICE_SW_DIR"
>>> "/opt/exp_software/alice"
>>> 
>>> и добавить переменные -
>>> "VO_ATLAS_LOCAL_AREA" "/opt/exp_software/atlas"
>>> для altas, cms & lhcb
>>> 
>>> _______________________________________________
>>> RU-NGI mailing list
>>> RU-NGI at theory.sinp.msu.ru
>>> http://theory.sinp.msu.ru/mailman/listinfo/ru-ngi
>>> 
>> 
>> 
>> 
>> _______________________________________________
>> RU-NGI mailing list
>> RU-NGI at theory.sinp.msu.ru
>> http://theory.sinp.msu.ru/mailman/listinfo/ru-ngi
> _______________________________________________
> RU-NGI mailing list
> RU-NGI at theory.sinp.msu.ru
> http://theory.sinp.msu.ru/mailman/listinfo/ru-ngi

-- 
Best regards,
  Valery Mitsyn


More information about the RU-NGI mailing list