Edge for Private Cloud เวอร์ชัน 4.16.09
เอกสารนี้จะอธิบายวิธีเพิ่มศูนย์ข้อมูล (หรือที่เรียกว่าภูมิภาค) ลงในข้อมูลที่มีอยู่
ข้อควรพิจารณาก่อนเพิ่มศูนย์ข้อมูล
ก่อนติดตั้งการเพิ่มศูนย์ข้อมูล คุณต้องเข้าใจวิธีกำหนดค่า OpenLDAP เซิร์ฟเวอร์ของ ZooKeeper, Cassandra และ Postgres ทั่วทั้งศูนย์ข้อมูล นอกจากนี้ คุณต้องตรวจสอบให้แน่ใจว่า พอร์ตที่จำเป็นจะเปิดระหว่างโหนดในศูนย์ข้อมูลทั้ง 2 แห่ง
- OpenLDAP
ศูนย์ข้อมูลแต่ละแห่งมีเซิร์ฟเวอร์ OpenLDAP ของตัวเองที่กำหนดค่าไว้โดยเปิดใช้การจำลอง เมื่อคุณ ติดตั้งศูนย์ข้อมูลใหม่ คุณต้องกำหนดค่า OpenLDAP เพื่อใช้การจำลอง และคุณต้อง กำหนดค่าเซิร์ฟเวอร์ OpenLDAP ในศูนย์ข้อมูลที่มีอยู่อีกครั้งเพื่อใช้การจำลอง - ZooKeeper
สำหรับพร็อพเพอร์ตี้ ZK_HOSTS สำหรับ ทั้งสองศูนย์ข้อมูล ระบุที่อยู่ IP หรือชื่อ DNS ของโหนด ZooKeeper ทั้งหมดจากข้อมูลทั้งสอง ในลำดับเดียวกัน แล้วทำเครื่องหมายโหนดด้วยตัวแก้ไข “:observer” โหนดที่ไม่มีตัวแก้ไข ":observer" จะเรียกว่า "voters" คุณต้องแปลกใหม่ จำนวน "ผู้โหวต" ในการกำหนดค่า
ในโทโพโลยีนี้ โฮสต์ ZooKeeper บนโฮสต์ 9 คือผู้สังเกตการณ์:
ในไฟล์การกำหนดค่าตัวอย่างที่แสดงด้านล่าง โหนด 9 ติดแท็กด้วยองค์ประกอบ ตัวแก้ไข ":observer" เพื่อให้คุณมีผู้ลงคะแนน 5 คน ได้แก่ โหนด 1, 2, 3, 7 และ 8
สำหรับ ZK_CLIENT_HOSTS สำหรับแต่ละศูนย์ข้อมูล ให้ระบุที่อยู่ IP หรือชื่อ DNS ของ ZooKeeper เท่านั้น โหนดในศูนย์ข้อมูลในลำดับเดียวกันสำหรับโหนด ZooKeeper ทั้งหมดในข้อมูล - คาสซานดรา
ศูนย์ข้อมูลทั้งหมดต้องมีจำนวนโหนด Cassandra เท่ากัน
สำหรับ CASS_HOSTS สำหรับข้อมูลแต่ละรายการ Center ให้ตรวจสอบว่าคุณได้ระบุที่อยู่ IP ของ Cassandra ทั้งหมด (ไม่ใช่ชื่อ DNS) สำหรับทั้ง 2 ข้อมูล สำหรับศูนย์ข้อมูลของเรา สำหรับศูนย์ข้อมูล 1 ให้แสดงรายการโหนด Cassandra ในศูนย์ข้อมูลนั้นก่อน สำหรับศูนย์ข้อมูล 2 แสดงโหนด Cassandra ในศูนย์ข้อมูลนั้นก่อน แสดงรายการโหนด Cassandra ใน สำหรับโหนด Cassandra ทั้งหมดในศูนย์ข้อมูล
โหนด Cassandra ทั้งหมดต้องมีคำต่อท้าย ":<d>,<r>" เช่น "<ip>:1,1 = ศูนย์ข้อมูล 1 และชั้นวาง/โซนความพร้อมใช้งาน 1 และ '<ip>:2,1 = ศูนย์ข้อมูล 2 และ แร็ค/โซนความพร้อมใช้งาน 1
เช่น "192.168.124.201:1,1 192.168.124.202:1,1 192.168.124.203:1,1 192.168.124.204:2,1 192.168.124.205:2,1 192.168.124.206:2,1"
โหนดแรกในแร็ค/โซนความพร้อมใช้งาน 1 ของแต่ละศูนย์ข้อมูลจะใช้เป็น Seed เซิร์ฟเวอร์ ในรูปแบบการทำให้ใช้งานได้นี้ การตั้งค่า Cassandra จะมีลักษณะดังนี้
-
Postgres
โดยค่าเริ่มต้น Edge จะติดตั้งโหนด Postgres ทั้งหมดในโหมดหลัก อย่างไรก็ตาม เมื่อคุณมี URL ศูนย์ข้อมูล คุณสามารถกำหนดค่าโหนด Postgres ให้ใช้การจำลองสแตนด์บายต้นแบบได้ ดังนั้นหาก โหนดหลักไม่ทำงาน โหนดสแตนด์บายจะยังคงแสดงการเข้าชมต่อไปได้ โดยปกติแล้วคุณจะต้องกำหนดค่า เซิร์ฟเวอร์ Postgres หลักในศูนย์ข้อมูลหนึ่ง และเซิร์ฟเวอร์สแตนด์บายในข้อมูลที่สอง
หากมีการกำหนดค่าศูนย์ข้อมูลที่มีอยู่ให้มีโหนด Postgres 2 โหนดที่ทำงานอยู่แล้ว โหมดหลัก/โหมดสแตนด์บาย จากนั้นยกเลิกการลงทะเบียนโหนดสแตนด์บายที่มีอยู่โดยเป็นส่วนหนึ่งของกระบวนการนี้ แทนที่ด้วยโหนดสแตนด์บายในศูนย์ข้อมูลใหม่
ตารางต่อไปนี้แสดงการกำหนดค่าก่อนและหลังสำหรับ Postgres สำหรับทั้ง 2 สถานการณ์
ก่อน
หลัง
โหนด Single Master Postgres ใน dc-1
โหนดหลัก Postgres ใน dc-1
โหนด Postgres สแตนด์บายใน dc-2
โหนดหลัก Postgres ใน dc-1
โหนด Postgres สแตนด์บายใน dc-1
โหนดหลัก Postgres ใน dc-1
โหนด Postgres สแตนด์บายใน dc-2
ยกเลิกการลงทะเบียนโหนด Standby Postgres เก่าใน dc-1
- ข้อกำหนดของพอร์ต
คุณต้องตรวจสอบว่าพอร์ตที่จำเป็นเปิดอยู่ระหว่างโหนดในศูนย์ข้อมูลทั้ง 2 แห่ง โปรดดูแผนภาพพอร์ตที่การติดตั้ง ข้อกำหนด
การอัปเดตศูนย์ข้อมูลที่มีอยู่
การเพิ่มศูนย์ข้อมูลกำหนดให้คุณต้องทำตามขั้นตอนการติดตั้งและกำหนดค่าข้อมูลใหม่ ตรงกลางได้ แต่คุณจะต้องอัปเดตโหนดในศูนย์ข้อมูลเดิมด้วย เหล่านี้ จำเป็นต้องมีการแก้ไข เนื่องจากคุณกำลังเพิ่มโหนด Cassandra และ ZooKeeper ใหม่ในโหนด ศูนย์ข้อมูลที่ต้องเข้าถึงได้ด้วยศูนย์ข้อมูลที่มีอยู่ และคุณต้องกำหนดค่าใหม่ OpenLDAP เพื่อใช้การจำลอง
การสร้างไฟล์การกำหนดค่า
ที่แสดงด้านล่างคือไฟล์การกำหนดค่าที่ผู้ใช้ไม่ต้องดำเนินการสำหรับศูนย์ข้อมูลทั้ง 2 แห่ง โดยแต่ละศูนย์ข้อมูล Center มี 6 โหนด โปรดสังเกตว่าไฟล์การกำหนดค่าสำหรับ dc-1 จะเพิ่มการตั้งค่าเพิ่มเติมไปยัง:
- กำหนดค่า OpenLDAP ด้วยการจำลองระหว่างโหนด OpenLDAP 2 โหนด
- เพิ่มโหนด Cassandra และ ZooKeeper ใหม่จาก dc-2 ไปยังไฟล์การกำหนดค่าสำหรับ dc-1
# Datacenter 1 IP1=IPorDNSnameOfNode1 IP2=IPorDNSnameOfNode2 IP3=IPorDNSnameOfNode3 IP7=IPorDNSnameOfNode7 IP8=IPorDNSnameOfNode8 IP9=IPorDNSnameOfNode9 HOSTIP=$(hostname -i) MSIP=$IP1 ADMIN_EMAIL=opdk@apigee.com APIGEE_ADMINPW=Secret123 LICENSE_FILE=/tmp/license.txt USE_LDAP_REMOTE_HOST=n LDAP_TYPE=2 LDAP_SID=1 LDAP_PEER=$IP7 APIGEE_LDAPPW=secret BIND_ON_ALL_INTERFACES=y MP_POD=gateway-1 REGION=dc-1 ZK_HOSTS="$IP1 $IP2 $IP3 $IP7 $IP8 $IP9:observer" ZK_CLIENT_HOSTS="$IP1 $IP2 $IP3" # Must use IP addresses for CASS_HOSTS, not DNS names. CASS_HOSTS="$IP1:1,1 $IP2:1,1 $IP3:1,1 $IP7:2,1 $IP8:2,1 $IP9:2,1" SKIP_SMTP=n SMTPHOST=smtp.example.com SMTPUSER=smtp@example.com SMTPPASSWORD=smtppwd SMTPSSL=n SMTPPORT=25 |
# Datacenter 2 IP1=IPorDNSnameOfNode1 IP2=IPorDNSnameOfNode2 IP3=IPorDNSnameOfNode3 IP7=IPorDNSnameOfNode7 IP8=IPorDNSnameOfNode8 IP9=IPorDNSnameOfNode9 HOSTIP=$(hostname -i) MSIP=$IP7 ADMIN_EMAIL=opdk@apigee.com APIGEE_ADMINPW=Secret123 LICENSE_FILE=/tmp/license.txt USE_LDAP_REMOTE_HOST=n LDAP_TYPE=2 LDAP_SID=2 LDAP_PEER=$IP1 APIGEE_LDAPPW=secret BIND_ON_ALL_INTERFACES=y MP_POD=gateway-2 REGION=dc-2 ZK_HOSTS="$IP1 $IP2 $IP3 $IP7 $IP8 $IP9:observer" ZK_CLIENT_HOSTS="$IP7 $IP8 $IP9" # Must use IP addresses for CASS_HOSTS, not DNS names. CASS_HOSTS="$IP7:2,1 $IP8:2,1 $IP9:2,1 $IP1:1,1 $IP2:1,1 $IP3:1,1" SKIP_SMTP=n SMTPHOST=smtp.example.com SMTPUSER=smtp@example.com SMTPPASSWORD=smtppwd SMTPSSL=n SMTPPORT=25 |
ขั้นตอนในการเพิ่มศูนย์ข้อมูลใหม่
ในขั้นตอนนี้ ศูนย์ข้อมูลจะมีชื่อว่า:
- dc-1: ศูนย์ข้อมูลที่มีอยู่
- dc-2: ศูนย์ข้อมูลใหม่
- ใน dc-1 ให้เรียกใช้ Setup.sh อีกครั้งบนโหนด Cassandra เดิมด้วย dc-1 ใหม่
ไฟล์ confiig ที่มีโหนด Cassandra จาก dc-2:
/opt/apigee/apigee-setup/bin/setup.sh -p ds -f configFile1 - ใน dc-1 ให้เรียกใช้ Setup.sh อีกครั้งบนโหนดเซิร์ฟเวอร์การจัดการ:
> /opt/apigee/apigee-setup/bin/setup.sh -p ms -f configFile1 - ใน dc-2 ให้ติดตั้ง apigee-setup บนโหนดทั้งหมด โปรดดูข้อมูลเพิ่มเติมที่หัวข้อติดตั้งยูทิลิตีการตั้งค่า Edge Apigee ข้อมูลเพิ่มเติม
- ใน dc-2 ให้ติดตั้ง Cassandra และ ZooKeeper ในโหนดที่เหมาะสมต่อไปนี้
/opt/apigee/apigee-setup/bin/setup.sh -p ds -f configFile2 - ใน dc-2 ให้เรียกใช้คำสั่ง rebuild บนโหนด Cassandra ทั้งหมดโดยระบุพารามิเตอร์
ชื่อภูมิภาคของ dc-1:
> /opt/apigee/apigee-cassandra/bin/nodetool -h cassIP สร้างใหม่ dc-1 - ใน dc-2 ให้ติดตั้งเซิร์ฟเวอร์การจัดการในโหนดที่เหมาะสม:
> /opt/apigee/apigee-setup/bin/setup.sh -p ms -f configFile2 - ใน dc-2 ให้ติดตั้ง Routes และ Message Processor ใน
โหนด:
> /opt/apigee/apigee-setup/bin/setup.sh -p RMp -f configFile2 - ใน dc-2 ให้ติดตั้ง Qpid ในโหนดที่เหมาะสม:
> /opt/apigee/apigee-setup/bin/setup.sh -p qs -f configFile2 - ใน dc-2 ให้ติดตั้ง Postgres ในโหนดที่เหมาะสม:
> /opt/apigee/apigee-setup/bin/setup.sh -p ps -f configFile2 - ตั้งค่าต้นแบบ/สแตนด์บายของ Postgres สำหรับโหนด Postgres โหนด Postgres ใน dc-1 คือ
และโหนด Postgres ใน dc-2 คือเซิร์ฟเวอร์สแตนด์บาย
หมายเหตุ: ถ้ากำหนดค่า dc-1 ให้มี Postgres 2 รายการอยู่แล้ว โหนดที่ทำงานในโหมดโฆษณาหลัก/โหมดสแตนด์บาย จากนั้นใช้เมธอด โหนดหลัก Postgres ที่มีอยู่ใน dc-1 เป็นโหนดหลัก และพารามิเตอร์ โหนด Postgres ใน dc-2 เป็นเซิร์ฟเวอร์สแตนด์บาย หลังจากนั้นในกระบวนการนี้ จะยกเลิกการลงทะเบียนเซิร์ฟเวอร์สแตนด์บายของ Postgres ที่มีอยู่ใน dc-1- ในโหนดหลักใน dc-1 ให้แก้ไขไฟล์การกำหนดค่าเพื่อตั้งค่า
PG_MASTER=IPorDNSofDC1Master
PG_STANDBY=IPorDNSofDC2Standby - เปิดใช้การจำลองบนต้นแบบใหม่:
> /opt/apigee/apigee-service/bin/apigee-service apigee-postgresql การตั้งค่า-replication-on-master -f configFIle - ในโหนดสแตนด์บายใน dc-2 ให้แก้ไขไฟล์การกำหนดค่าเพื่อตั้งค่า
PG_MASTER=IPorDNSofDC1Master
PG_STANDBY=IPorDNSofDC2Standby - บนโหนดสแตนด์บายใน dc-2 ให้หยุดเซิร์ฟเวอร์แล้วลบโหนด
ข้อมูล Postgres ที่มีอยู่:
> /opt/apigee/apigee-service/bin/apigee-service apigee-postgresql หยุดลง
rm -rf /opt/apigee/data/apigee-postgresql/
หมายเหตุ: คุณสามารถสำรองข้อมูลนี้ไว้ก่อนลบออกได้ หากจำเป็น - กำหนดค่าโหนดสแตนด์บายใน dc-2 ดังนี้
> /opt/apigee/apigee-service/bin/apigee-service apigee-postgresql เท่านั้น settings-replication-on- Standby -f configFile
- ในโหนดหลักใน dc-1 ให้แก้ไขไฟล์การกำหนดค่าเพื่อตั้งค่า
- ใน dc-1 ให้อัปเดตการกำหนดค่า Analytics และกำหนดค่าองค์กร
- ในโหนดเซิร์ฟเวอร์การจัดการของ dc-1 ให้รับ UUID ของ Postgres
โหนด:
> เซิร์ฟเวอร์ apigee-adminapi.sh รายการ -r dc-1 -p analytics -t postgres-server --admin adminEmail --pwd adminPword - โฮสต์ localhost
UUID จะปรากฏท้ายข้อมูลที่ส่งคืน บันทึกค่าดังกล่าว
หมายเหตุ: หากมีการกำหนดค่า dc-1 ให้มีโหนด Postgres 2 รายการทำงานอยู่ โหมดหลัก/โหมดสแตนด์บาย คุณจะเห็นที่อยู่ IP และ UUID 2 รายการในเอาต์พุต บันทึก UUID ทั้ง 2 รายการ จาก IP เหล่านี้ คุณควรระบุได้ว่า UUID ใดเป็นของต้นแบบและ URL ใดสำหรับ โหนดสแตนด์บาย - ในโหนดเซิร์ฟเวอร์การจัดการของ dc-2 ให้รับ UUID ของ Postgres ตามที่แสดงในขั้นตอนก่อนหน้า บันทึกค่าดังกล่าว
- ในโหนดเซิร์ฟเวอร์การจัดการของ dc-1 ให้ระบุชื่อของ
Analytics และกลุ่มผู้บริโภค คำสั่งด้านล่างหลายคำสั่งจำเป็นต้องใช้ข้อมูลดังกล่าว
โดยค่าเริ่มต้น ชื่อกลุ่ม Analytics คือ axgroup-001 และชื่อของผู้บริโภค group คือ consumer-group-001 ในไฟล์การกำหนดค่าที่ผู้ใช้ไม่ต้องดำเนินการสำหรับภูมิภาค คุณสามารถตั้งชื่อได้ ของกลุ่ม Analytics โดยใช้พร็อพเพอร์ตี้ AXGROUP
หากไม่แน่ใจชื่อ Analytics และกลุ่มผู้ใช้ทั่วไป ให้ใช้ข้อมูลต่อไปนี้ คำสั่งให้แสดง:
> ข้อมูลวิเคราะห์ apigee-adminapi.sh รายชื่อกลุ่ม --admin adminEmail --pwd adminPword --host localhost
คำสั่งนี้จะแสดงชื่อกลุ่ม Analytics ในช่องชื่อและกลุ่มผู้ใช้ทั่วไป ในฟิลด์กลุ่มผู้บริโภค - ในโหนดเซิร์ฟเวอร์การจัดการของ dc-1 ให้นำ Postgres ที่มีอยู่ออก
เซิร์ฟเวอร์จากกลุ่ม Analytics
- นำโหนด Postgres ออกจากกลุ่ม Consumer:
> apigee-adminapi.sh analytics groups consumer_groups datastores remove -g axgroup-001 -c consumer-group-001 -u UUID -Y --ผู้ดูแลระบบ adminEmail --pwd adminPword -- โฮสต์ localhost
หากมีการกำหนดค่า dc-1 ให้มีโหนด Postgres 2 รายการที่ทำงานอยู่ โหมดหลัก/โหมดสแตนด์บาย ให้นำทั้ง 2 โหมดออก:
> apigee-adminapi.sh analytics groups consumer_groups datastores remove -g axgroup-001 -c consumer-group-001 -u "UUID_1,UUID_2" -Y --admin adminEmail --pwd adminPword -- โฮสต์ localhost - นำโหนด Postgres ออกจากกลุ่ม Analytics:
> apigee-adminapi.sh analytics Groups postgres_server remove -g axgroup-001 -u UUID -Y --admin adminEmail --pwd adminPword -- โฮสต์ localhost
หากมีการกำหนดค่า dc-1 มีโหนด Postgres 2 โหนดที่ทำงานในโหมดต้นแบบ/สแตนด์บาย ให้นำออก ทั้งคู่:
> apigee-adminapi.sh Analytics กลุ่ม postgres_server ลบ -g axgroup-001 -u UUID1,UUID2 -Y --admin adminEmail --pwd adminPword -- โฮสต์ localhost
- นำโหนด Postgres ออกจากกลุ่ม Consumer:
-
ในโหนดเซิร์ฟเวอร์การจัดการของ dc-1 ให้เพิ่มต้นแบบ/สแตนด์บายใหม่
Postgres เซิร์ฟเวอร์ไปยังกลุ่ม Analytics:
- เพิ่มเซิร์ฟเวอร์ Postgres ทั้ง 2 รายการลงในกลุ่ม Analytics:
> apigee-adminapi.sh analytics Groups postgres_server add -g axgroup-001 -u "UUID_1,UUID_2" --admin adminEmail --pwd adminPword -- โฮสต์ localhost
โดยที่ UUID_1 สอดคล้องกับโหนด Postgres หลักใน dc-1 และ UUID_2 สอดคล้องกับ Postgres ที่สแตนด์บาย โหนดใน dc-2 - เพิ่มเซิร์ฟเวอร์ PG ไปยังกลุ่มผู้ใช้ทั่วไปเป็นโหมดหลัก/สแตนด์บาย:
> apigee-adminapi.sh analytics groups consumer_groups datastores datastores add -g axgroup-001 -c consumer-group-001 -u "UUID_1,UUID_2" --admin adminEmail --pwd adminPword -- โฮสต์ localhost
- เพิ่มเซิร์ฟเวอร์ Postgres ทั้ง 2 รายการลงในกลุ่ม Analytics:
- เพิ่มเซิร์ฟเวอร์ Qpid จาก dc-2 ไปยังกลุ่ม Analytics ดังนี้
- ในโหนดเซิร์ฟเวอร์การจัดการของ dc-1 ให้รับ UUID ของ Qpid
โหนดใน dc-2:
> apigee-adminapi.sh รายการเซิร์ฟเวอร์ -r dc-2 -pcentral -t qpid-server --admin adminEmail --pwd adminPword --โฮสต์ localhost
UUID จะปรากฏท้ายข้อมูลที่ส่งคืน บันทึกค่าเหล่านั้น - ในโหนดเซิร์ฟเวอร์การจัดการของ dc-1 ให้เพิ่มโหนด Qpid ไปยัง
กลุ่ม Analytics:
>apigee-adminapi.sh เพิ่มการวิเคราะห์กลุ่ม qpid_server -g axgroup-001 -u "UUID_1,UUID_2" --admin adminEmail --pwd adminPword --โฮสต์ localhost - ในโหนดเซิร์ฟเวอร์การจัดการของ dc-1 ให้เพิ่มโหนด Qpid ไปยัง
กลุ่มผู้บริโภค:
> apigee-adminapi.sh analytics กลุ่ม consumer_groups ผู้บริโภคเพิ่ม -g axgroup-001 -c consumer-group-001 -u "UUID_1,UUID_2" --admin adminEmail --pwd adminPword -- โฮสต์ localhost
- ในโหนดเซิร์ฟเวอร์การจัดการของ dc-1 ให้รับ UUID ของ Qpid
โหนดใน dc-2:
- ยกเลิกการลงทะเบียนและลบเซิร์ฟเวอร์สแตนด์บาย Postgres เก่าจาก dc-1:
- ยกเลิกการลงทะเบียนเซิร์ฟเวอร์สแตนด์บาย dc-1 Postgres ที่มีอยู่:
> apigee-adminapi.sh เซิร์ฟเวอร์ ยกเลิกการลงทะเบียน -u UUID -r dc-1 -p analytics -t postgres-server -Y --admin adminEmail --pwd adminPword --โฮสต์ localhost
โดยที่ UUID คือสแตนด์บายเดิม โหนด Postgres ใน dc-1 - ลบเซิร์ฟเวอร์สแตนด์บาย dc-1 Postgres ที่มีอยู่:
หมายเหตุ: คำสั่งนี้จะไม่ถอนการติดตั้งโหนดเซิร์ฟเวอร์ Postgres ทั้งนี้ เพียงแค่นำโหนดออกจากรายการโหนด Edge เท่านั้น คุณสามารถถอนการติดตั้ง Postgres ได้ในภายหลังจาก โหนดของคุณ หากจำเป็น
> apigee-adminapi.sh เซิร์ฟเวอร์ลบ -u UUID --ผู้ดูแลระบบ adminEmail --pwd adminPword -- โฮสต์ localhost
- ยกเลิกการลงทะเบียนเซิร์ฟเวอร์สแตนด์บาย dc-1 Postgres ที่มีอยู่:
- ในโหนดเซิร์ฟเวอร์การจัดการของ dc-1 ให้รับ UUID ของ Postgres
โหนด:
- เรียกใช้คำสั่ง Nodetool ต่อไปนี้บนโหนด Cassandra ทั้งหมดใน dc-1 ไปยังหน่วยความจำว่าง:
> /opt/apigee/apigee-cassandra/bin/nodetool -h cassandraIP การทำความสะอาด - สำหรับแต่ละองค์กรและแต่ละสภาพแวดล้อมที่คุณต้องการรองรับในข้อมูล
ศูนย์:
- ในโหนดเซิร์ฟเวอร์การจัดการของ dc-1 ให้เพิ่ม MP_POD ใหม่ไปยัง
องค์กร:
> พ็อด apigee-adminapi.sh orgs เพิ่ม -o orgName -r dc-2 -p gateway-2 --ผู้ดูแลระบบ adminEmail --pwd adminPword --host localhost
โดยที่ gateway-2 คือชื่อของพ็อดเกตเวย์ตามที่กำหนดโดย MP_POD ในไฟล์การกำหนดค่า dc-2 - เพิ่มตัวประมวลผลข้อความใหม่ไปยังองค์กรและสภาพแวดล้อมดังนี้
- ในโหนดเซิร์ฟเวอร์การจัดการของ dc-2 ให้รับ UUID ของ
โหนดตัวประมวลผลข้อความใน dc-2:
> apigee-adminapi.sh รายการเซิร์ฟเวอร์ -r dc-2 -p gateway-2 -t message-processor --admin adminEmail --pwd adminPword --โฮสต์ localhost
UUID จะปรากฏท้ายข้อมูลที่ส่งคืน บันทึกค่าเหล่านั้น - ในโหนดเซิร์ฟเวอร์การจัดการของ dc-1 สำหรับ Message Processor แต่ละรายการ
ใน dc-2 ให้เพิ่ม Message Processor ไปยังสภาพแวดล้อมสำหรับองค์กร ดังนี้
> องค์กร apigee-adminapi.sh เซิร์ฟเวอร์ envs เพิ่ม -o orgName -e envName -u UUID --ผู้ดูแลระบบ adminEmail --pwd adminPword -- โฮสต์ localhost
- ในโหนดเซิร์ฟเวอร์การจัดการของ dc-2 ให้รับ UUID ของ
โหนดตัวประมวลผลข้อความใน dc-2:
- ในโหนดเซิร์ฟเวอร์การจัดการของ dc-1 ให้ตรวจสอบองค์กร ดังนี้
> API ของ apigee-adminapi.sh orgs การทำให้ใช้งานได้ -o orgName -a apiProxyName --ผู้ดูแลระบบ adminEmail --pwd adminPword --host localhost
โดยที่ apiProxyName คือชื่อของพร็อกซี API ที่ทำให้ใช้งานได้ใน องค์กร
- ในโหนดเซิร์ฟเวอร์การจัดการของ dc-1 ให้เพิ่ม MP_POD ใหม่ไปยัง
องค์กร: