Silent install OCSG

Развертывание БД, создание схем не рассматривается в документе — пререквизит.

1. На всех разделах площадки оптимизируем параметры Java
Под пользователем root выполнить:
sed -i «s/securerandom.source=file:\/dev\/urandom/securerandom.source=file:\/dev\/.\/urandom/g» /usr/java/jdk1.7.0_79/jre/lib/security/java.security
sed -i s/#UseDNS\ yes/UseDNS\ no/g /etc/ssh/sshd_config && service sshd restart

mkdir /etc/oraInventory
echo -e «inventory_loc=/etc/oraInventory\ninst_group=oinstall» > /etc/oraInst.loc
chmod -R 777 /etc/oraIn*
chown -R oracle:oinstall /oracle/ && su — oracle && mkdir -p /oracle/tmp

2. На серверах слоя Access Tier выполнить установку OCSG в silent режиме следующим образом: (локация с дистрибутивом OCSG может быть другой, как и локация с response-файлом)

/usr/java/jdk1.7.0_79/bin/java -Djava.io.tmpdir=/oracle/tmp -jar /oracle/fmw/oracle/ocsg_multitier_generic.jar -silent -responseFile /tmp/home/oracle/OCSG/AT.rsp

3. На серверах слоя Network Tier выполнить установку OCSG в silent режиме следующим образом: (локация с дистрибутивом OCSG может быть другой, как и локация с response-файлом)

/usr/java/jdk1.7.0_79/bin/java -Djava.io.tmpdir=/oracle/tmp -jar /oracle/fmw/oracle/ocsg/12.1.3.0/ocsg_multitier_generic.jar -silent -responseFile /tmp/home/oracle/OCSG/NT.rsp

4. На административном сервере выполнить установку OCSG в silent режиме следующим образом: (локация с дистрибутивом OCSG может быть другой, как и локация с response-файлом):

/usr/java/jdk1.7.0_79/bin/java -Djava.io.tmpdir=/oracle/tmp -jar /oracle/fmw/oracle/ocsg/12.1.3.0/ocsg_multitier_generic.jar -silent -responseFile /home/oracle/admin.rsp

5. На серверах портала OCSG предварительно выполнить установку Oracle Grid Infrastructure, подготовить VIP и кластерный диск:
Подготовить обе ноды кластера (пример приводится для хостов ***-osb-1/2 и их VIP/interconnect, поэтому соответствующие параметры требуется изменить)

Создать каталог для инвентори
mkdir /etc/oraInventory
vi /etc/oraInst.loc
inventory_loc=/etc/oraInventory
inst_group=oinstall
chmod -R 777 /etc/oraIn*

В /etc/hosts внести корректные записи о нодах кластера:
192.168..4.85 ***-osb-1.dmz.test.ot ***-osb-1
192.168..4.86 ***-osb-2.dmz.test.ot ***-osb-2

10.0.0.85 ***-osb-1-rac.dmz.test.ot ***-osb-1-rac
10.0.0.86 ***-osb-2-rac.dmz.test.ot ***-osb-2-rac

Права на домашний каталог GI
chown -R oragrid:oinstall /oracle/clusterware/

Установить пароль для владельца Oracle GI
passwd oragrid

chown oragrid:oinstall /oracle/clusterware

Конфигурируем oracleasm на обоих нодах кластера
[root@***-osb-1 ~]# /usr/sbin/oracleasm configure -i
Configuring the Oracle ASM library driver.

This will configure the on-boot properties of the Oracle ASM library
driver. The following questions will determine whether the driver is
loaded on boot and what permissions it will have. The current values
will be shown in brackets (‘[]’). Hitting without typing an
answer will keep that current value. Ctrl-C will abort.

Default user to own the driver interface []: oragrid
Default group to own the driver interface []: oinstall
Start Oracle ASM library driver on boot (y/n) [n]: y
Scan for Oracle ASM disks on boot (y/n) [y]:
Writing Oracle ASM library driver configuration: done

service oracleasm restart

Создаем ASM диск на первой ноде кластера:
/usr/sbin/oracleasm createdisk ASMDISK1 /dev/sdc1
Writing disk header: done
Instantiating disk: done

Выполняем сканирование дисков на обоих нодах кластера
oracleasm scandisks
Scanning the system for Oracle ASMLib disks: [ OK ]

Созданный диск можно увидеть на обоих нодах кластера:
[root@***-osb-1 ~]# oracleasm listdisks
ASMDISK1

Настраиваем беспарольную ssh-аутентификацию с помощью sshUserSetup.sh:
cd $GI_DISTR/sshsetup
./sshUserSetup.sh -user oragrid -hosts «***-osb-1 ***-osb-2» -noPromptPassphrase

На хост ***-osb-2 придется вручную скопировать с первой ноды — .ssh/id_rsa* и .ssh/known_hosts
Проверить возможность беспарольного хождения между хостами.

Подготовленный response-файл находится в /home/oragrid/grid_install3.rsp

Инсталляция Grid
./runInstaller -silent -responseFile /home/oragrid/grid_install3.rsp -ignoreSysPrereqs -ignorePrereq

Инсталляция патча для ACFS — на ядре 3.8 ASFS не поддерживается без патча p16318126_112040_Linux-x86-64.zip:
Необходимо на каждой ноде кластера установить предварительно последний OPatch — p6880880_112000_Linux-x86-64.zip
unzip -d $GI_HOME p6880880_112000_Linux-x86-64.zip
Подготовить response-файл, перейти в $GI_HOME/OPatch/ocm/bin
выполнить ./emocmrsp — сформируется response-файл ocm.rsp, скопировать его в домашний каталог владльца GI

На каждой ноде кластера из под root выполнить:
export PATH=$PATH:/oracle/clusterware/grid/OPatch
opatch auto /oracle/clusterware/dsr/patch -oh /oracle/clusterware/grid -ocmrf /home/oragrid/ocm.rsp

ASMCMD
1) volcreate -G DATA -s 9G voladmosb
2) volenable -G DATA voladmosb

root
1) mkfs -t acfs /dev/asm/voladmosb-9
2) acfsutil registry -a -f /dev/asm/voladmosb-9 /oracle/admin/OSBDomain/aserver
3) mkdir -p /oracle/admin/OSBDomain/aserver
4) mount.acfs -o all
5) В /etc/rc.local необходимо добавать /oracle/clusterware/grid/bin/acfsload start

В случае непредвиденного падения ноды кластера или поановой остановки с последующей перезагрузкой необходимо выполнить п.4 из под пользователя root, предварительно убедившись, что сервисы кластера запущены:
[root@***-soa-1 bin]# /oracle/clusterware/grid/bin/crsctl check crs
CRS-4638: Oracle High Availability Services is online
CRS-4535: Cannot communicate with Cluster Ready Services
CRS-4529: Cluster Synchronization Services is online
CRS-4534: Cannot communicate with Event Manager

6. На серверах портала OCSG выполнить установку OCSG в silent режиме следующим образом: (локация с дистрибутивом OCSG может быть другой, как и локация с response-файлом):
/usr/java/jdk1.7.0_79/bin/java -Djava.io.tmpdir=/oracle/tmp -jar /oracle/fmw/oracle/ocsg/12.1.3.0/ocsg_multitier_generic.jar -silent -responseFile /home/oracle/Portal.rsp

7. Конфигурация домена выполняется на административном сервере
Инициализация переменных окружения:
. /oracle/fmw/ocsg/wlserver/server/bin/setWLSEnv.sh

Создание домена:
java weblogic.WLST ~/OCSG/access-network-cluster.py

Выявлен баг, когда конфигурация домена в скрытом режиме любым (в том числе, с «родным») скриптом оформляет каталог приложений домена от корня (т.е., /applications, в связи с чем возникают проблемы при упаковке. Потоково меняем на корректное расположение по пути $ORACLE_HOME/ocsg/applications).
sed -i «s/\/applications/\/oracle\/fmw\/ocsg\/ocsg\/applications/g» /oracle/admin/OCSGDomain/aserver/OCSGDomain/config/config.xml

Правим хардкорно зашитые значения машин в кастоме:
sed -i s/WLNG_NT/nt_server/g /oracle/admin/OCSGDomain/aserver/OCSGDomain/config/custom/*
cd /oracle/fmw/ocsg/wlserver/common/bin

Пакуем домен:
./pack.sh -managed=true -domain=/oracle/admin/OCSGDomain/aserver/OCSGDomain -template=ocsgdomaintemplate.jar -template_name=ocsgdomaintemplate
cd /oracle/fmw/ocsg/wlserver/common/bin

8. Разворачиваем домен на нодах AT и NT:
./unpack.sh -domain=/oracle/admin/OCSGDomain/mserver/OCSGDomain -template=/tmp/ocsgdomaintemplate.jar -overwrite_domain=true -app_dir=/oracle/admin/OCSGDomain/mserver/applications

Стартуем нодменеджер на узлах NT и AT. Если не запустится, поругавшись на кошелек, копируем его с каталога домена:
cp /oracle/admin/OCSGDomain/mserver/OCSGDomain/security/DemoIdentity.jks /oracle/fmw/ocsg/oracle_common/common/nodemanager/security/DemoIdentity.jks

И прописываем домен в нодменеджере:
echo «OCSGDomain=/oracle/admin/OCSGDomain/mserver/OCSGDomain» > /oracle/fmw/ocsg/oracle_common/common/nodemanager/nodemanager.domains

Стартуем веблоджик на административном сервере nohup oracle/admin/OCSGDomain/aserver/OCSGDomain/bin/startWeblogic.sh &
Заходим в консоль Weblogic домена OCSGDomain — http://$IPADDRESS:7001/console weblogic/Oracle33
Стартуем нодменеджер и мсервера через консоль администрирования weblogic.

9. На серверах портала OCSG выполнить
Запуск NodeManager
nohup /oracle/fmw/ocsg/wlserver/server/bin/startNodeManager.sh &
echo «OCSGDomain=/oracle/admin/OCSGDomain/mserver/OCSGDomain» >> /oracle/fmw/ocsg/oracle_common/common/nodemanager/nodemanager.domains
cp /oracle/admin/OCSGDomain/mserver/OCSGDomain/security/DemoIdentity.jks /oracle/fmw/ocsg/oracle_common/common/nodemanager/security/DemoIdentity.jks

Пакуем домен на первой ноде:
./pack.sh -managed=true -domain=/oracle/admin/OCSGDomain/aserver/OCSGDomain -template=ocsgdomaintemplate.jar -template_name=ocsgdomaintemplate
cd /oracle/fmw/ocsg/wlserver/common/bin

Распаковываем домен на обоих нодах портала:
./unpack.sh -domain=/oracle/admin/OCSGDomain/mserver/OCSGDomain -template=/tmp/ocsgdomaintemplate.jar -overwrite_domain=true -app_dir=/oracle/admin/OCSGDomain/mserver/applications

mkdir -p /oracle/admin/OCSGDomain/aserver/OCSGDomain/servers/AdminServer/security && echo -e «username=weblogic\npassword=Oracle33» > /oracle/admin/OCSGDomain/aserver/OCSGDomain/servers/AdminServer/security/boot.properties

10. Стартуем административную консоль портала и запускаем через нее управоляемые сервера портала:
nohup oracle/admin/OCSGDomain/aserver/OCSGDomain/bin/startWeblogic.sh &
Зайти в консоль веблоджик weblogic/Oracle33
и запустить управляемые сервера портала.

Скрипты во вложении

Final

About

View all posts by

Добавить комментарий

Ваш адрес email не будет опубликован.

Этот сайт использует Akismet для борьбы со спамом. Узнайте, как обрабатываются ваши данные комментариев.