server101100



مقدمه

اتوماسیون

سرور مجازی اکنون به دلیل ماهیت یکبار مصرف محیط های کاربردی مدرن ، نقش اساسی در مدیریت سیستم ها ایفا می کند. ابزارهای مدیریت پیکربندی مانند Ansible معمولاً برای ساده سازی فرایند خودکار سازی تنظیم

سرور مجازی با تعیین مراحل استاندارد برای

سرور مجازی جدید استفاده می شود و در عین حال خطای انسانی مرتبط با تنظیمات دستی را نیز کاهش می دهد. Ansible یک معماری ساده را ارائه می دهد که نیازی به نصب نرم افزار ویژه روی گره ها ندارد. همچنین مجموعه ای از ویژگی ها و ماژول های داخلی را فراهم می کند که نوشتن اسکریپت های اتوماسیون را تسهیل می کند. در این راهنما نحوه استفاده از Ansible برای خودکارسازی مراحل موجود در راهنمای ما درباره نحوه نصب وردپرس با LAMP در اوبونتو 18.04 توضیح داده شده است. وردپرس محبوب ترین CMS (سیستم مدیریت محتوا) در اینترنت است که به کاربران امکان می دهد وبلاگ ها و وب سایتهای قابل انعطاف را فراتر از MySQL با پردازش PHP تنظیم کنند. پس از راه اندازی ، تقریباً تمام مراحل اجرا از طریق web frontend قابل انجام است. پیش نیازها برای اجرای تنظیم خودکار ارائه شده توسط playbook که در این راهنما در مورد آن صحبت می کنیم ، به این موارد نیاز دارید: • یک گره کنترل Ansible : یک دستگاه اوبونتو 18.04 که دارای Ansible نصب شده و تنظیم شده است تا با استفاده از کلیدهای SSH به میزبان های Ansible شما متصل شود. اطمینان حاصل کنید که گره کنترل دارای یک کاربر معمولی با مجوزهای sudo باشد و فایروال فعال نیز داشته باشد ، همانطور که در راهنمای راه اندازی

سرور مجازی اولیه ما توضیح داده شده است. برای تنظیم Ansible ، لطفا راهنمای ما در مورد نحوه نصب و پیکربندی Ansible در اوبونتو 18.04 را دنبال کنید. • یک یا چند هاست Ansible: یک یا چند

سرور مجازی از راه دور Ubuntu 18.04 که قبلاً به کمک راهنمای نحوه استفاده از Ansible برای خودکارسازی تنظیمات اولیه

سرور مجازی در اوبونتو 18.04 تنظیم شده اند. قبل از ادامه کار ، ابتدا باید اطمینان حاصل کنید که گره کنترل Ansible شما قادر به اتصال و اجرای دستورات در هاست (های) Ansible باشد. برای بررسی اتصال ، لطفاً مرحله 3 نحوه نصب و پیکربندی Ansible در اوبونتو 18.04 را بررسی کنید. این Playbook چه کاری انجام می دهد؟ این playbook Ansible از طریق روشی که در راهنمای ما در مورد نحوه نصب وردپرس با LAMP در اوبونتو 18.04 ارائه شده است ، جایگزینی برای اجرای دستی فراهم می کند. اجرای این playbook اقدامات زیر را در هاست Ansible شما انجام خواهد داد: 1) aptitude را نصب میکند ، که توسط Ansible به عنوان جایگزینی برای مدیر بسته apt ارجحیت داده میشود. 2)بسته های LAMP مورد نیاز و پسوندهای PHP را نصب میکند. 3) یک Apache VirtualHost جدید برای وب سایت وردپرس ایجاد و فعال مینماید. 4) ماژول بازنویسی Apache (mod_rewrite) را فعال میکند. 5) وب سایت پیش فرض Apache را غیرفعال میکند. 6) رمز ورود را برای کاربر root MySQL تنظیم میکند. 7) حساب های MySQL ناشناس را حذف و پایگاه داده را آزمایش میکند. 8) برای وب سایت وردپرس یک بانک اطلاعاتی MySQL و کاربر جدید ایجاد میکند. 9)UFW را تنظیم میکند تا ترافیک HTTP روی درگاه پیکربندی شده انجام شود (به طور پیش فرض 80). 10) وردپرس را دانلود و باز میکند. 11) مالکیت و مجوزهای صحیح دایرکتوری را تنظیم میکند. 12) با استفاده از الگوی ارائه شده ، فایل wp-config.php را تنظیم کنید. پس از پایان کار playbook ، بر اساس گزینه هایی که در متغیرهای پیکربندی خود تعریف کرده اید ، یک نصب وردپرس در یک محیط LAMP اجرا می شود. نحوه استفاده از این Playbook اولین کاری که ما باید انجام دهیم این است که وردپرس را در playbook LAMP و متعلقات آن از منبع do-community / ansible-playbooks را دریافت کنیم. ما باید این منبع را به یک پوشه محلی در داخل گره کنترل Ansible تبدیل کنیم. اگر قبلا با دنبال کردن راهنمای دیگری ، این منبع را کلون کرده اید ، به کپیansible-playbooks موجود خود دسترسی پیدا کنید و یک دستور git pull را اجرا کنید تا مطمئن شوید که مطالب به روز شده را دارید: ⦁ $ cd ~/ansible-playbooks ⦁ ⦁ $ git pull اگر این اولین بار است که از منابع do-community / ansible-playbooks استفاده می کنید ، باید با کلون کردن منبع در پوشه هوم فولدر خود شروع کنید: ⦁ $ cd ~ ⦁ ⦁ $ git clone https://github.com/do-community/ansible-playbooks.git ⦁ ⦁ $ cd ansible-playbooks فایل های مورد علاقه ما در داخل پوشه wordpress-lamp_ubuntu1804 قرار گرفته اند که دارای ساختار زیر است: wordpress-lamp_ubuntu1804 ├── files │ ├── apache.conf.j2 │ └── wp-config.php.j2 ├── vars │ └── default.yml ├── playbook.yml └── readme.md در اینجا در مورد هر یک از این فایل ها آمده است: files / apache.conf.j2: فایل الگو برای تنظیم Apache VirtualHost. files / wp-config.php.j2: فایل الگو برای تنظیم فایل پیکربندی WordPress. vars / default.yml: فایل متغیر برای شخصی سازی تنظیمات playbook. playbook.yml: فایل playbook ، شامل کارهایی که باید روی

سرور مجازی راه دور اجرا شود. readme.md: فایل متنی حاوی اطلاعات مربوط به این playbook . ما برای سفارشی سازی گزینه های playbook ، فایل متغیرهای آن را ویرایش خواهیم کرد. به دایرکتوری wordpress-lamp_ubuntu1804 دسترسی پیدا کنید و فایل vars / default.yml را با استفاده از ویرایشگر خط فرمان مورد نظر خود باز کنید: ⦁ $ cd wordpress-lamp_ubuntu1804 ⦁ ⦁ $ nano vars/default.yml این فایل شامل چند متغیر است که باید به آن توجه کنید: vars/default.yml --- #System Settings php_modules: [ 'php-curl', 'php-gd', 'php-mbstring', 'php-xml', 'php-xmlrpc', 'php-soap', 'php-intl', 'php-zip' ] #MySQL Settings mysql_root_password: "mysql_root_password" mysql_db: "wordpress" mysql_user: "sammy" mysql_password: "password" #HTTP Settings http_host: "your_domain" http_conf: "your_domain.conf" http_port: "80" لیست زیر شامل توضیح مختصری در مورد هر یک از این متغیرها و نحوه تغییر آنها می باشد: php_modules: آرایه ای حاوی افزونه های PHP که باید برای پشتیبانی از راه اندازی وردپرس شما نصب شوند. شما نیازی به تغییر این متغیر ندارید ، اما در صورت نیاز برای ستاپ خاص شما، باید افزودنه های جدید به لیست اضافه کنید. mysql_root_password: کلمه عبور مورد نظر برای حساب MySQL ریشه mysql_db: نام پایگاه داده MySQL که باید برای وردپرس ایجاد شود. mysql_user: نام کاربر MySQL که باید برای وردپرس ایجاد شود. mysql_password: رمز عبور برای کاربر جدید MySQL. http_host: نام دامنه شما. http_conf: نام فایل پیکربندی که در Apache ایجاد می شود. http_port: درگاه HTTP برای این هاست مجازی ، که به طور پیش فرض 80 است. پس از اتمام به روزرسانی متغیرهای داخل vars / default.yml ، این فایل را ذخیره کنید و ببندید. اگر از nano استفاده کرده اید ، این کار را با فشار دادن CTRL + X ، Y انجام دهید. سپس enter را بزنید. اکنون آماده اجرای این playbook در یک یا چند

سرور مجازی هستید. بیشتر playbook ها به گونه پیش فرض تنظیم شده اند که در هر

سرور مجازی موجود شما اجرا می شود. ما می توانیم از فلگ -l استفاده کنیم تا مطمئن شویم که فقط یک زیر مجموعه از

سرور مجازی ها یا یک

سرور مجازی منفرد تحت تأثیر Playbook قرار گرفته است. ما همچنین می توانیم از فلگ -u استفاده کنیم تا مشخص کنیم از کدام کاربر روی

سرور مجازی از راه دور استفاده می کنیم تا دستورات playbook را روی میزبان از راه دور متصل کنیم. برای اجرای playbook فقط در server1 ، با اتصال به عنوان sammy ، می توانید از دستور زیر استفاده کنید: ⦁ $ ansible-playbook playbook.yml -l server1 -u sammy ⦁ خروجی مشابه این دریافت خواهید کرد: Output PLAY [all] ***************************************************************************************************************************** TASK [Gathering Facts] ***************************************************************************************************************** ok: [server1] TASK [Install prerequisites] *********************************************************************************************************** ok: [server1] … TASK [Download and unpack latest WordPress] ******************************************************************************************** changed: [server1] TASK [Set ownership] ******************************************************************************************************************* changed: [server1] TASK [Set permissions for directories] ************************************************************************************************* changed: [server1] TASK [Set permissions for files] ******************************************************************************************************* changed: [server1] TASK [Set up wp-config] **************************************************************************************************************** changed: [server1] RUNNING HANDLER [Reload Apache] ******************************************************************************************************** changed: [server1] RUNNING HANDLER [Restart Apache] ******************************************************************************************************* changed: [server1] PLAY RECAP ***************************************************************************************************************************** server1 : ok=22 changed=18 unreachable=0 failed=0 skipped=0 rescued=0 ignored=0 توجه: برای کسب اطلاعات بیشتر در مورد نحوه اجرای Ansible playbooks ، راهنمای Ansible Cheat Sheet Guide را بررسی کنید. پس از پایان راه اندازی Playbook ، می توانید به مرورگر وب خود بروید تا نصب وردپرس را از همانجا به پایان برسانید. به نام دامنه یا آدرس IP عمومی

سرور مجازی خود بروید: http: // server_host_or_IP صفحه ای مانند این را مشاهده خواهید کرد: پس از انتخاب زبانی که می خواهید برای نصب وردپرس خود استفاده کنید ، مرحله نهایی برای تنظیم کاربر و رمزعبور وردپرس به شما ارائه می شود تا بتوانید وارد کنترل پنل شوید: با کلیک بر روی صفحه ، شما به صفحه ای منتقل می شوید که از شما خواسته می شود وارد شوید: پس از ورود به سیستم ، شما به داشبورد مدیریت وردپرس منتقل می شوید: برخی از مراحل بعدی رایج برای سفارشی سازی نصب وردپرس شامل انتخاب تنظیمات permalinks برای پست های شما (می توانید در Settings > Permalinks بیابید) و انتخاب تم جدید (در Appearance > Themes) میباشد. محتوای Playbook می توانید تنظیمات سرور LAMP وردپرس را که در این آموزش مشاهده شده است ، در پوشه wordpress-lamp_ubuntu1804 در داخل منبع DigitalOcean Community Playbooks مشاهده کنید. برای کپی یا دانلود مستقیم محتوای اسکریپت ، روی دکمه Raw به سمت بالای هر اسکریپت کلیک کنید. محتویات کامل Playbook و همچنین فایل های مرتبط با آن نیز برای راحتی شما در اینجا گنجانده شده است. vars / default.yml فایل متغیر default.yml حاوی مقادیری است که در وظایف playbook از جمله تنظیمات بانک اطلاعاتی و نام دامنه برای پیکربندی در Apache استفاده خواهد شد. vars/default.yml #System Settings php_modules: [ 'php-curl', 'php-gd', 'php-mbstring', 'php-xml', 'php-xmlrpc', 'php-soap', 'php-intl', 'php-zip' ] #MySQL Settings mysql_root_password: "mysql_root_password" mysql_db: "wordpress" mysql_user: "sammy" mysql_password: "password" #HTTP Settings http_host: "your_domain" http_conf: "your_domain.conf" http_port: "80" files/apache.conf.j2 فایل apache.conf.j2 یک فایل الگوی Jinja 2 است که یک آپشن جدید Apache VirtualHost را پیکربندی می کند. متغیرهای مورد استفاده در این الگو در فایل متغیر vars / default.yml تعریف شده اند. files/apache.conf.j2 <VirtualHost *:{{ http_port }}> ServerAdmin webmaster@localhost ServerName {{ http_host }} ServerAlias www.{{ http_host }} DocumentRoot /var/www/{{ http_host }} ErrorLog ${APACHE_LOG_DIR}/error.log CustomLog ${APACHE_LOG_DIR}/access.log combined <Directory /var/www/{{ http_host }}> Options -Indexes </Directory> <IfModule mod_dir.c> DirectoryIndex index.php index.html index.cgi index.pl index.xhtml index.htm </IfModule> </VirtualHost> files/wp-config.php.j2 فایل wp-config.php.j2 یکی دیگر از الگوهای Jinja است که برای تنظیم فایل اصلی پیکربندیWordPress استفاده می شود. متغیرهای مورد استفاده در این الگو در فایل متغیر vars / default.yml تعریف شده اند. کلیدهای احراز هویت منحصر به فرد با استفاده از یک عملکرد ترکیبی ایجاد می شوند. files/info.php.j2 <?php /** * The base configuration for WordPress * * The wp-config.php creation script uses this file during the * installation. You don't have to use the web site, you can * copy this file to "wp-config.php" and fill in the values. * * This file contains the following configurations: * * * MySQL settings * * Secret keys * * Database table prefix * * ABSPATH * * @link https://codex.wordpress.org/Editing_wp-config.php * * @package WordPress */ // ** MySQL settings - You can get this info from your web host ** // /** The name of the database for WordPress */ define( 'DB_NAME', '{{ mysql_db }}' ); /** MySQL database username */ define( 'DB_USER', '{{ mysql_user }}' ); /** MySQL database password */ define( 'DB_PASSWORD', '{{ mysql_password }}' ); /** MySQL hostname */ define( 'DB_HOST', 'localhost' ); /** Database Charset to use in creating database tables. */ define( 'DB_CHARSET', 'utf8' ); /** The Database Collate type. Don't change this if in doubt. */ define( 'DB_COLLATE', '' ); /** Filesystem access **/ define('FS_METHOD', 'direct'); /**#@+ * Authentication Unique Keys and Salts. * * Change these to different unique phrases! * You can generate these using the {@link https://api.wordpress.org/secret-key/1.1/salt/ WordPress.org secret-key service} * You can change these at any point in time to invalidate all existing cookies. This will force all users to have to log in again. * * @since 2.6.0 */ define( 'AUTH_KEY', '{{ ansible_date_time.iso8601_micro | hash('sha256') }}' ); define( 'SECURE_AUTH_KEY', '{{ ansible_date_time.iso8601_micro | hash('sha256') }}' ); define( 'LOGGED_IN_KEY', '{{ ansible_date_time.iso8601_micro | hash('sha256') }}' ); define( 'NONCE_KEY', '{{ ansible_date_time.iso8601_micro | hash('sha256') }}' ); define( 'AUTH_SALT', '{{ ansible_date_time.iso8601_micro | hash('sha256') }}' ); define( 'SECURE_AUTH_SALT', '{{ ansible_date_time.iso8601_micro | hash('sha256') }}' ); define( 'LOGGED_IN_SALT', '{{ ansible_date_time.iso8601_micro | hash('sha256') }}' ); define( 'NONCE_SALT', '{{ ansible_date_time.iso8601_micro | hash('sha256') }}' ); /**#@-*/ /** * WordPress Database Table prefix. * * You can have multiple installations in one database if you give each * a unique prefix. Only numbers, letters, and underscores please! */ $table_prefix = 'wp_'; /** * For developers: WordPress debugging mode. * * Change this to true to enable the display of notices during development. * It is strongly recommended that plugin and theme developers use WP_DEBUG * in their development environments. * * For information on other constants that can be used for debugging, * visit the Codex. * * @link https://codex.wordpress.org/Debugging_in_WordPress */ define( 'WP_DEBUG', false ); /* That's all, stop editing! Happy publishing. */ /** Absolute path to the WordPress directory. */ if ( ! defined( 'ABSPATH' ) ) { define( 'ABSPATH', dirname( __FILE__ ) . '/' ); } /** Sets up WordPress vars and included files. */ require_once( ABSPATH . 'wp-settings.php' ); playbook.yml فایل playbook.yml جایی است که کلیه وظایف این مجموعه تعریف شده است. این کار با تعریف گروه

سرور مجازی هایی که باید هدف این مجموعه باشند (all) شروع می شود ، و پس از آن برای تعریف اینکه وظایف باید بصورت پیش فرض با افزایش امتیاز (sudo) انجام شود یا خیر، از become: true استفاده می کند. سپس ، فایل متغیر vars / default.yml را برای بارگذاری گزینه های پیکربندی شامل می شود. playbook.yml --- - hosts: all become: true vars_files: - vars/default.yml tasks: - name: Install prerequisites apt: name=aptitude update_cache=yes state=latest force_apt_get=yes tags: [ system ] - name: Install LAMP Packages apt: name={{ item }} update_cache=yes state=latest loop: [ 'apache2', 'mysql-server', 'python3-pymysql', 'php', 'php-mysql', 'libapache2-mod-php' ] tags: [ system ] - name: Install PHP Extensions apt: name={{ item }} update_cache=yes state=latest loop: "{{ php_modules }}" tags: [ system ] # Apache Configuration - name: Create document root file: path: "/var/www/{{ http_host }}" state: directory owner: "www-data" group: "www-data" mode: '0755' tags: [ apache ] - name: Set up Apache VirtualHost template: src: "files/apache.conf.j2" dest: "/etc/apache2/sites-available/{{ http_conf }}" notify: Reload Apache tags: [ apache ] - name: Enable rewrite module shell: /usr/sbin/a2enmod rewrite notify: Reload Apache tags: [ apache ] - name: Enable new site shell: /usr/sbin/a2ensite {{ http_conf }} notify: Reload Apache tags: [ apache ] - name: Disable default Apache site shell: /usr/sbin/a2dissite 000-default.conf notify: Restart Apache tags: [ apache ] # MySQL Configuration - name: Set the root password mysql_user: name: root password: "{{ mysql_root_password }}" login_unix_socket: /var/run/mysqld/mysqld.sock tags: [ mysql, mysql-root ] - name: Remove all anonymous user accounts mysql_user: name: '' host_all: yes state: absent login_user: root login_password: "{{ mysql_root_password }}" tags: [ mysql ] - name: Remove the MySQL test database mysql_db: name: test state: absent login_user: root login_password: "{{ mysql_root_password }}" tags: [ mysql ] - name: Creates database for WordPress mysql_db: name: "{{ mysql_db }}" state: present login_user: root login_password: "{{ mysql_root_password }}" tags: [ mysql ] - name: Create MySQL user for WordPress mysql_user: name: "{{ mysql_user }}" password: "{{ mysql_password }}" priv: "{{ mysql_db }}.*:ALL" state: present login_user: root login_password: "{{ mysql_root_password }}" tags: [ mysql ] # UFW Configuration - name: "UFW - Allow HTTP on port {{ http_port }}" ufw: rule: allow port: "{{ http_port }}" proto: tcp tags: [ system ] # WordPress Configuration - name: Download and unpack latest WordPress unarchive: src: https://wordpress.org/latest.tar.gz dest: "/var/www/{{ http_host }}" remote_src: yes creates: "/var/www/{{ http_host }}/wordpress" tags: [ wordpress ] - name: Set ownership file: path: "/var/www/{{ http_host }}" state: directory recurse: yes owner: www-data group: www-data tags: [ wordpress ] - name: Set permissions for directories shell: "/usr/bin/find /var/www/{{ http_host }}/wordpress/ -type d -exec chmod 750 {} \\;" tags: [ wordpress ] - name: Set permissions for files shell: "/usr/bin/find /var/www/{{ http_host }}/wordpress/ -type f -exec chmod 640 {} \\;" tags: [ wordpress ] - name: Set up wp-config template: src: "files/wp-config.php.j2" dest: "/var/www/{{ http_host }}/wordpress/wp-config.php" tags: [ wordpress ] handlers: - name: Reload Apache service: name: apache2 state: reloaded - name: Restart Apache service: name: apache2 state: restarted با خیال راحت این فایل ها را به بهترین وجه متناسب با نیازهای فردی خود در گردش کارتان تغییر دهید. نتیجه در این راهنما ، ما از Ansible برای خودکارسازی روند نصب و راه اندازی وب سایت وردپرس با LAMP روی

سرور مجازی اوبونتو 18.04 استفاده کرده ایم. اگر می خواهید کارهای دیگری در این playbook را برای سفارشی سازی تنظیمات

سرور مجازی خود انجام دهید ، لطفاً به راهنمای مقدماتی Ansible ( پیکربندی مدیریت 101: نوشتن Ansible Playbooks) مراجعه کنید.


مقدمه

code-server یک کد مایکروسافت ویژوال استودیو است که روی یک

سرور مجازی از راه دور اجرا می شود و مستقیماً از مرورگر شما قابل دسترسی است. این بدان معنی است که می توانید از دستگاه های مختلف با سیستم عامل های مختلف استفاده کنید و همیشه یک محیط توسعه مداوم داشته باشید. در این آموزش ، پلت فرم cloud IDE کد

سرور مجازی را بر روی دستگاه Ubuntu 18.04 خود تنظیم کرده و آن را در دامنه خود قرار می دهید ، که با Let’s Encrypt ایمن شده است. برای نسخه دقیق تر این آموزش ، به نحوه راه اندازی رمز

سرور مجازی Cloud IDE در اوبونتو 18.04 مراجعه کنید. پیش نیازها ⦁

سرور مجازی که اوبونتو 18.04 را اجرا میکند با حداقل 2 گیگابایت حافظه رم ، دسترسی به ریشه و یک حساب سودو و غیر ریشه. می توانید این کار را با دنبال کردن راهنمای اولیه تنظیم

سرور مجازی Ubuntu 18.04 انجام دهید. ⦁ Nginx که روی

سرور مجازی شما نصب شده است. برای راهنمایی در مورد نحوه انجام این کار ، مراحل 1 تا 4 نحوه نصب Nginx را در اوبونتو 18.04 مطالعه کنید. ⦁ یک نام دامنه به طور کامل ثبت شده برای هاست کد

سرور مجازی ، که به

سرور مجازی شما اشاره میکند. در این آموزش از code-server.your-domain استفاده می شود. می توانید نام دامنه را در Namecheap خریداری کنید ، یکی از آنها را به صورت رایگان در Freenom دریافت کنید ، یا از ثبت دامنه مورد نظر خود استفاده کنید. ⦁ هر دو سابقه DNS زیر برای

سرور مجازی شما تنظیم شده اند. برای جزئیات بیشتر در مورد چگونگی اضافه کردن آنها می توانید این مقدمه را در DigitalOcean DNS دنبال کنید. ⦁ یک پرونده با your-domain که آدرس IP عمومی

سرور مجازی شما را نشان می دهد. ⦁ یک پرونده با دامنه www. your-domain که آدرس IP عمومی

سرور مجازی شما را نشان می دهد. مرحله 1 - نصب کد

سرور مجازی برای ذخیره کلیه داده ها برای کد

سرور مجازی ، دایرکتوری زیر را ایجاد کنید: ⦁ $ mkdir ~/code-server به سمت آن جهت دهی کنید: ⦁ $ cd ~/code-server به صفحه نسخه های کد

سرور مجازی Github مراجعه کرده و آخرین لینوکس را انتخاب کنید. آن را با استفاده از آدرس زیر دانلود کنید: ⦁ $ wget https://github.com/cdr/code-server/releases/download/2.1692-vsc1.39.2/code-server2.1692-vsc1.39.2-linux-x86_64.tar.gz ⦁ آرشیو را باز کنید: ⦁ $ tar -xzvf code-server2.1692-vsc1.39.2-linux-x86_64.tar.gz ⦁ به دیرکتوری حاوی کد

سرور مجازی قابل اجرا بروید: ⦁ $ cd code-server2.1692-vsc1.39.2-linux-x86_64 ⦁ برای دسترسی به کد

سرور مجازی قابل اجرا در سیستم خود ، آن را با دستور زیر کپی کنید: ⦁ $ cd code-server2.1692-vsc1.39.2-linux-x86_64 ⦁ پوشه ای برای کد

سرور مجازی ایجاد کنید تا داده های کاربر ذخیره شود: ⦁ $ sudo mkdir /var/lib/code-server ⦁ یک سرویس سیستمی ، code-server.service ، در دیرکتوری / lib / systemd / system ایجاد کنید: ⦁ $ sudo nano /lib/systemd/system/code-server.service ⦁ خطوط زیر را اضافه کنید: /lib/systemd/system/code-server.service [واحد] توضیحات =

سرور مجازی کد پس از = nginx.service [سرویس] نوع = ساده محیط = PASSWORD = کلمه کلیدی شما ExecStart = / usr / local / bin / code-server - host 127.0.0.1 --user-data-dir / var / lib / code-server - رمز ورود راه اندازی مجدد = همیشه [نصب] WantedBy = multi-user.targe /lib/systemd/system/code-server.service [Unit] Description=code-server After=nginx.service [Service] Type=simple Environment=PASSWORD=your_password ExecStart=/usr/local/bin/code-server --host 127.0.0.1 --user-data-dir /var/lib/code-server --auth password Restart=always [Install] WantedBy=multi-user.target --host 127.0.0.1 آن را به localhost متصل می کند. --user-data-dir /var/lib/code-server دایرکتوری داده های کاربر آن را تنظیم می کند. --auth password مشخص می کند که باید بازدید کنندگانی معتبر با رمز عبور وجود داشته باشند. به یاد داشته باشید که your_password را با رمز عبور دلخواه خود جایگزین کنید. فایل را ذخیره کنید و ببندید. سرویس کد

سرور مجازی را شروع کنید: ⦁ $ sudo systemctl start code-server ⦁ بررسی کنید که به درستی شروع شده است: ⦁ $ sudo systemctl status code-server ⦁ خروجی مشابه با زیر مشاهده میکنید: Output ● code-server.service - code-server Loaded: loaded (/lib/systemd/system/code-server.service; disabled; vendor preset: enabled) Active: active (running) since Mon 2019-12-09 20:07:28 UTC; 4s ago Main PID: 5216 (code-server) Tasks: 23 (limit: 2362) CGroup: /system.slice/code-server.service ├─5216 /usr/local/bin/code-server --host 127.0.0.1 --user-data-dir /var/lib/code-server --auth password └─5240 /usr/local/bin/code-server --host 127.0.0.1 --user-data-dir /var/lib/code-server --auth password . بعد از راه اندازی مجدد

سرور مجازی ، سرویس کد

سرور مجازی را فعال کنید: ⦁ $ sudo systemctl enable code-server ⦁ مرحله 2 – به نمایش گذاشتن کد

سرور مجازی اکنون Nginx را به عنوان یک پروکسی مع برای کد

سرور مجازی پیکربندی خواهید کرد. برای ذخیره پیکربندی جهت نمایش دادن کد

سرور مجازی در دامنه خود ، code-server.conf را ایجاد کنید: sudo nano /etc/nginx/sites-available/code-server.conf خطوط زیر را برای تنظیم بلوک

سرور مجازی خود با دستورالعمل های لازم اضافه کنید: /etc/nginx/sites-available/code-server.conf server { listen 80; listen [::]:80; server_name code-server.your_domain; location / { proxy_pass http://localhost:8080/; proxy_set_header Upgrade $http_upgrade; proxy_set_header Connection upgrade; proxy_set_header Accept-Encoding gzip; } } code-server.your_domain را با دامنه مورد نظر خود جایگزین کنید ، سپس فایل را ذخیره کنید و ببندید. برای فعال کردن پیکربندی این سایت ، یک سیملینک از آن ایجاد کنید: ⦁ $ sudo ln -s /etc/nginx/sites-available/code-server.conf /etc/nginx/sites-enabled/code-server.conf ⦁ اعتبار پیکربندی را تست کنید: ⦁ $ sudo nginx -t ⦁ خروجی زیر را مشاهده خواهید کرد: Output nginx: the configuration file /etc/nginx/nginx.conf syntax is ok nginx: configuration file /etc/nginx/nginx.conf test is successful برای اجرای پیکربندی ، Nginx را مجدداً راه اندازی کنید: ⦁ $ sudo systemctl restart nginx ⦁ مرحله 3 - دامنه خود را ایمن کنید اکنون دامنه خود را با استفاده از گواهی Let’s Encrypt TLS ایمن می کنید. منبع بسته Certbot را به

سرور مجازی خود اضافه کنید: ⦁ $ sudo add-apt-repository ppa:certbot/certbot ⦁ Certbot و افزونه Nginx آن را نصب کنید: ⦁ $ sudo apt install python-certbot-nginx ⦁ ufw را برای پذیرش ترافیک رمزگذاری شده پیکربندی کنید: ⦁ $ sudo ufw allow https ⦁ خروجی به شکل زیر خواهد بود: Output Rule added Rule added (v6) برای پیکربندی برای اجرا مجدد آن را بارگذاری کنید: ⦁ $ sudo ufw reload ⦁ خروجی زیر نشان داده می شود: Output Firewall reloaded به دامنه کد

سرور مجازی خود بروید. رمز عبور

سرور مجازی کد خود را وارد کنید. مرز نمایش داده شده در دامنه خود را مشاهده خواهید کرد. برای تأمین امنیت آن ، یک مجوز Let’s Encrypt TLS با استفاده از Certbot نصب کنید. برای دامنه خود با دستور زیر درخواست یک مجوز بدهید: ⦁ $ sudo certbot --nginx -d code-server.your_domain ⦁ برای اطلاع رسانی های فوری یک آدرس ایمیل ارائه دهید ، شرایط خدمات EFF را بپذیرید ، و تصمیم بگیرید که آیا تمام ترافیک HTTP را به HTTPS هدایت کنید یا خیر. خروجی مشابه زیر خواهد بود: Output IMPORTANT NOTES: - Congratulations! Your certificate and chain have been saved at: /etc/letsencrypt/live/code-server.your_domain/fullchain.pem Your key file has been saved at: /etc/letsencrypt/live/code-server.your_domain/privkey.pem Your cert will expire on . To obtain a new or tweaked version of this certificate in the future, simply run certbot again with the "certonly" option. To non-interactively renew *all* of your certificates, run "certbot renew" . Certbot با موفقیت گواهینامه های TLS را ایجاد میکند و آنها را در پیکربندی Nginx برای دامنه شما اعمال می نماید. نتیجه اکنون شما دارای کد

سرور مجازی ، و یک cloud IDE همه کاره هستید که بر روی

سرور مجازی Ubuntu 18.04 نصب شده است ، در دامنه شما قرار گرفته و با استفاده از گواهی نامه های Let’s Encrypt ایمن شده است. برای اطلاعات بیشتر در مورد ویژگی ها و دستورالعمل های دقیق در مورد سایر مؤلفه های کد

سرور مجازی ، به مطالب ویژوال استودیو کد مراجعه کنید.


مقدمه

Ansible یک ابزار مدیریت پیکربندی است که برای خودکار سازی

سرور مجازی های کنترل کننده برای مدیران و تیم های عملیاتی طراحی شده است. با استفاده از Ansible می توانید از یک

سرور مجازی مرکزی منفرد استفاده کنید تا بسیاری از سیستمهای مختلف از راه دور را با استفاده از SSH و Python به عنوان تنها ابزار مورد نیاز کنترل و پیکربندی کنید. Ansible وظایف خود را بر روی

سرور مجازی هایی انجام می دهد که بر اساس تعریف وظیفه آنها را مدیریت می کند. این کارها از ماژول های داخلی Ansible با استفاده از قطعه های کوچک YAML برای هر کار استفاده می کند. هرچه تعداد و تنوع سیستمهایی که شما با یک گره کنترل Ansible مدیریت می کنید پیچیده تر می شود ، معقول است که وظایف را با هم در playbooks Ansible گروه بندی کنید. استفاده از این playbook ها نیاز به اجرای بسیاری از وظایف فردی روی سیستم های از راه دور را برطرف می کند ، در عوض به شما امکان می دهد تمام محیط ها را به طور هم زمان با یک فایل واحد پیکربندی کنید. با این حال ، وقتی که playbooks وظیفه تنظیم بسیاری از سیستم های مختلف با کارهای مختلف برای هر سیستم را دارند ، می توانند پیچیده تر شوند بنابراین Ansible همچنین به شما امکان می دهد تا وظایفی را در یک ساختار دایرکتوری به نام Role سازماندهی کنید. در این پیکربندی ، playbooks به جای وظایف ، رول ها را فراخوانی می کنند ، بنابراین شما هنوز هم می توانید وظایف را با هم گروه بندی کرده و سپس در سایر playbooks از رول ها استفاده مجدد کنید. رول ها همچنین به شما امکان می دهد قالب ها ، فایل های استاتیک و متغیرها را به همراه کارهای خود در یک قالب ساختاری جمع آوری کنید. در این آموزش چگونگی ایجاد رول ها و چگونگی اضافه کردن قالب ها ، فایل های استاتیک و متغیرها به یک رول مورد بررسی قرار خواهد گرفت. پس از آشنایی با اصول رول های ساختای ، از Ansible Galaxy استفاده خواهیم کرد تا رول های مرتبط با جامعه را در playbooks وارد کنیم. با پایان این آموزش قادر خواهید بود برای

سرور مجازی های خود رول های خاص محیطی خود را ایجاد کرده و از آنها در playbooks خود استفاده کنید تا یک یا بسیاری از سیستم ها را مدیریت کنید. پیش نیازها برای دنبال کردن این آموزش ، باید Ansible را نصب و پیکربندی کنید تا بتوانید playbooks را ایجاد و اجرا کنید. شما همچنین نیاز به درک نحوه نوشتن playbooks Ansible حساس دارید. رول Ansible چیست؟ در آموزش های پیش نیاز ، شما یاد گرفتید که چگونه ابزار اصلی Ansible را با استفاده از دستور ansible در یک ترمینال اجرا کنید. همچنین آموخته اید که چگونه وظایف را در playbooks جمع آوری کرده و آنها را با استفاده از دستور playbooks ansible اجرا کنید. مرحله بعدی رفتن از اجرای دستورات منفرد ، به سمت وظایف ، و playbooks ، سازماندهی مجدد همه چیز با استفاده از یک رول Ansible است. رول ها سطحی از انتزاع در صدر کارها و playbook هستند که به شما امکان می دهد پیکربندی Ansible خود را در قالب مدولار و قابل استفاده مجدد سازماندهی کنید. هرچه عملکرد و انعطاف پذیری بیشتری را به playbooks خود اضافه می کنید ، آنها گسترده میشوند و نگهداری شان می تواند دشوار شود. رول ها به شما امکان می دهد یک playbook پیچیده را به بخش های جداگانه و کوچکتر تقسیم کنید که با یک نقطه ورودی مرکزی هماهنگ شوند. به عنوان مثال ، در این آموزش کل playbook.yml که با آنها کار خواهیم کرد به شرح زیر است: Example Playbook 1--- 2- hosts: all 3 become: true 4 roles: 5 - apache 6 vars: 7 doc_root: /var/www/example مجموعه تمام کارهایی که برای پیکربندی یک وب

سرور مجازی Apache انجام می شود ، در رول apache که ایجاد خواهیم کرد ، درج خواهد شد. این رول به جای لیست کردن تکالیف به صورت جداگانه مانند آنچه در نسخه پیکربندی مدیریت 101 انجام دادیم ، به شرح زیر تمام کارهایی را که باید برای نصب Apache انجام شود ، تعریف می کند. ساماندهی ستاپ Ansible شما به صورت رول ها به شما امکان می دهد از مراحل پیکربندی مشترک بین انواع مختلف

سرور مجازیها مجدد استفاده کنید. حتی اگر این کار با وجود چندین فایل وظیفه در یک playbook نیز امکان پذیر باشد ، رول ها به ساختار دایرکتوری شناخته شده و کنوانسیون نام فایل متکی هستند تا به صورت خودکار فایل هایی که در این بازی استفاده می شوند را بارگیری کنند. به طور کلی ، ایده های پشت رول ها این است که به شما امکان می دهد با استفاده از یک ساختار پایدار ، وظایف خود را با یکدیگر به اشتراک بگذارید و از آنها استفاده مجدد کنید ، در حالی که نگهداری آنها بدون انجام کارهای تکراری برای همه زیرساخت های شما آسان می شود. ایجاد رول برای ایجاد رول Ansible به یک ساختار دایرکتوری اختصاصی نیاز دارید. رول ها همیشه به این طرح دایرکتوری نیاز دارند تا Ansible بتواند آنها را پیدا کرده و از آنها استفاده کند. ما در اینجا فرض می کنیم که از دایرکتوری هوم کاربر به عنوان دایرکتوری کاربری Ansible استفاده کرده اید. اگر پیکربندی Ansible خود را در یک مکان دیگر نگه داشته باشید ، باید (cd) را در آن دیرکتوری تغییر دهید. برای شروع ، بیایید دایرکتوری به نام roles ایجاد کنیم. وقتی می خواهیم در ادامه این آموزش رول جدید خود را در یک playbook استفاده کنیم، Ansible به اینجا نگاه می کند. $ cd ~ $ mkdir roles $ cd roles در این دایرکتوری رول هایی را تعریف خواهیم کرد که قابل استفاده مجدد در چندین playbook و

سرور مجازی های مختلف هستند. هر رولی که ایجاد خواهیم کرد نیاز به دیرکتوری خاص خود دارد. ما می خواهیم نمونه playbook Apache را از آموزش Configuration Management 101: Writing Ansible Playbooks بگیریم و آن را به یک رول قابل استفاده مجدد Ansible تبدیل کنیم. برای ارجاع، این playbook از آن آموزش است: playbook.yml 1--- 2- hosts: all 3 become: true 4 vars: 5 doc_root: /var/www/example 6 tasks: 7 - name: Update apt 8 apt: update_cache=yes 9 10 - name: Install Apache 11 apt: name=apache2 state=latest 12 13 - name: Create custom document root 14 file: path={{ doc_root }} state=directory owner=www-data group=www-data 15 16 - name: Set up HTML file 17 copy: src=index.html dest={{ doc_root }}/index.html owner=www-data group=www-data mode=0644 18 19 - name: Set up Apache virtual host file 20 template: src=vhost.tpl dest=/etc/apache2/sites-available/000-default.conf 21 notify: restart apache 22 23 handlers: 24 - name: restart apache 25 service: name=apache2 state=restarted در ابتدا ، یک دایرکتوری Apache برای رول خود ایجاد می کنیم و آن را با دیرکتوری های مورد نیاز جمع کنیم: $ mkdir apache $ cd apache در مرحله بعدی مجموعه زیر دایرکتوری های مورد نیاز را ایجاد خواهیم کرد که به Ansible اطلاع می دهد که باید از محتویات به عنوان یک رول استفاده کند. با استفاده از دستور mkdir این دایرکتوری ها را ایجاد کنید: $ mkdir defaults files handlers meta templates tasks vars این دیرکتوری ها برای اجرای رول ما شامل کلیه کد ها می باشند. بسیاری از رول ها بسته به پیچیدگی کارهایی که انجام می دهند فقط از یک یا چند مورد از این دایرکتوری ها استفاده خواهند کرد. هنگام نوشتن رول های خود ، ممکن است نیازی به ایجاد همه این دایرکتوری ها نباشد. در اینجا توضیحی در مورد آنچه هر دایرکتوری نشان می دهد آورده شده است: defaults: این دایرکتوری به شما امکان می دهد متغیرهای پیش فرض را برای رول های شامل یا وابسته تنظیم کنید. هر پیش فرض تنظیم شده در اینجا می تواند در playbooks یا فایل های موجودی تنظیم شود. files: این دایرکتوری حاوی فایل های استاتیک و فایلهای اسکریپتی است که ممکن است در یک

سرور مجازی از راه دور کپی شده یا اجرا شوند. handlers : همه هندلر هایی که قبلاً در playbooks شما بوده اند اکنون می توانند در این دایرکتوری قرار بگیرند. Meta : این دایرکتوری برای ابرداده رول ها ، که معمولاً برای مدیریت وابستگی استفاده می شود ، محفوظ است. به عنوان مثال ، می توانید لیستی از رول ها را تعریف کنید که باید قبل از استناد به رول فعلی اعمال شوند. templates: این دایرکتوری برای قالب هایی اختصاص داده شده است که تولید فایل در هاست از راه دور را انجام میدهند. قالب ها معمولاً از متغیرهایی استفاده می کنند که در فایل های واقع در دایرکتوری vars و اطلاعات جمع آوری شده هاست در زمان اجرا، تعریف شده اند. tasks: این دایرکتوری شامل یک یا چند فایل با کارهایی است که بطور معمول در بخش وظایف یک playbook معمولی Ansible تعریف می شود. این کارها می توانند به طور مستقیم فایل ها و الگوهای موجود در دایرکتوری های مربوطه خود را در داخل رول ، بدون نیاز به ارائه مسیر کاملی برای فایل ، ارجاع دهند. Vars : متغیرهای یک رول را می توان در فایل های داخل این دایرکتوری مشخص کرد و سپس به مکان دیگری در یک رول ارجاع داد. اگر فایلی به نام main.yml در یک دایرکتوری وجود داشته باشد ، محتوای آن به طور خودکار به playbook ای که رول را فرامیخواند اضافه می شود. با این حال ، این امر در مورد دایرکتوری های files و templates صدق نمی کند ، زیرا محتوای آنها به صراحت ارجاع داده شود. تبدیل یک Playbook به یک رول اکنون که با آنچه در هر دایرکتوری در رول Ansible استفاده می شود آشنا هستید ، می توانیم playbook Apache را به رولی تبدیل کنیم تا امور بهتر سازماندهی شود. ما باید ساختارهای role / / apache2 / d subdirectories from را از قسمت آخر تنظیم کنیم. حال باید برخی از فایلهای YAML را برای تعریف رول خود ایجاد کنیم. ایجاد فایل main.yml کارها ما با زیرمجموعه وظایف شروع خواهیم کرد. اکنون به آن دایرکتوری منتقل میشویم: $ cd ~/roles/apache/tasks ما باید یک فایل main.yml را در این دایرکتوری ایجاد کنیم. آن را با کل محتوای Playbook Apache جمع می کنیم و سپس ویرایش می کنیم تا فقط شامل وظایف باشد. $ nano main.yml وقتی شروع می کنید ، فایل باید از این قرار باشد: main.yml 1--- 2- hosts: all 3 become: true vars: 5 _root: /var/www/example 6 7 tasks: - name: Update apt 9 apt: update_cache=yes 10 11- name: Install Apache 12 apt: name=apache2 state=latest 13 14 - name: Create custom document root 15 file: path={{ doc_root }} state=directory owner=www-data group=www-data 16 17 - name: Set up HTML file 18 copy: src=index.html dest={{ doc_root }}/index.html owner=www-data group=www-data mode=0644 19 20 - name: Set up Apache virtual host file 21 template: src=vhost.tpl dest=/etc/apache2/sites-available/000-default.conf 22 notify: restart apache 23 24 handlers: 25 - name: restart apache 26 service: name=apache2 state=restarted ما فقط می خواهیم خط اول --- و خطوط قسمت tasks را برجسته نگه داریم. ما همچنین می توانیم فضاهای فرعی را به سمت چپ وظایف خود حذف کنیم. همچنین برای فعال کردن یک ماژول Apache به نام modsecurance یک بخش جدید اضافه خواهیم کرد که بعداً در این آموزش پیکربندی خواهیم کرد. پس از این تغییرات ، فایل جدید ~ / role / apache / works / main.yml ما به این شکل ظاهر می شود: main.yml 1--- 2- name: Update apt 3 apt: update_cache=yes 4 5- name: Install Apache 6 apt: name=apache2 state=latest 7 8- name: Create custom document root 9 file: path={{ doc_root }} state=directory owner=www-data group=www-data 10 11- name: Set up HTML file 12 copy: src=index.html dest={{ doc_root }}/index.html owner=www-data group=www-data mode=0644 13 14- name: Set up Apache virtual host file 15 template: src=vhost.tpl dest=/etc/apache2/sites-available/000-default.conf 16 notify: restart apache اکنون پیگیری و فهم فایل tasks آسان تر است زیرا فقط شامل مراحل واقعی است که هنگام استفاده از رول Apache انجام می شود. توجه داشته باشید که چگونه خطوط copy و template به ترتیب از src = index.html و src = vhost.tpl برای فایل های مرجع در رول ما استفاده می کنند ، بدون اینکه مسیر قبلd داشته باشkد. ساختار دایرکتوری رول ما اجازه می دهد فایل ها و قالب ها را مستقیماً با نام آنها ارجاع دهیم ، و Ansible آنها را به طور خودکار برای ما پیدا می کند. هنگام پایان ویرایش آن ، فایل را ذخیره کنید و ببندید. ایجاد فایل main.yml هندلرها اکنون که توده ای از playbook را در فایل وظایف / main.yml داریم ، باید بخش هندلر ها را به یک فایل واقع در handlers / main.yml منتقل کنیم. ابتدا در زیر مجموعه هندلرها در رول ما cd را انجام دهید: $ cd ~/roles/apache/handlers دوباره ، فایل را در ویرایشگر متن خود باز کنید و کل محتویات اصلی playbook.yml را پیست کنید: $ nano main.yml قسمت هایی که باید آنها را نگهداریم دوباره مشخص شده است: playbook.yml 1--- 2- hosts: all 3 become: true 4 vars: 5 doc_root: /var/www/example 6 tasks: 7 - name: Update apt 8 apt: update_cache=yes 9 10 - name: Install Apache 11 apt: name=apache2 state=latest 12 13 - name: Create custom document root 14 file: path={{ doc_root }} state=directory owner=www-data group=www-data 15 16 - name: Set up HTML file 17 copy: src=index.html dest={{ doc_root }}/index.html owner=www-data group=www-data mode=0644 18 19 - name: Set up Apache virtual host file 20 template: src=vhost.tpl dest=/etc/apache2/sites-available/000-default.conf 21 notify: restart apache 22 23 handlers: 24 - name: restart apache 25 service: name=apache2 state=restarted فضای سفید را از جلوی هندلرها نیز رفع کنید. در پایان ، فایل باید به صورت زیر باشد: --- - name: restart apache service: name=apache2 state=restarted پس از اتمام فایل را ذخیره کنید و ببندید. افزودن فایل ها و قالب ها اکنون که وظایف و هندلرهایی داریم ، مرحله بعدی این است که اطمینان حاصل کنیم که یک فایل index.html و یک الگوی vhost.tpl وجود دارد تا Ansible بتواند آنها را پیدا کند و روی

سرور مجازی های راه دور ما قرار دهد. از آنجا که ما به این فایل ها در فایل های tasks/main.yml ارجاع داده ایم ، آنها باید وجود داشته باشند درغیر این صورتAnsible قادر به اجرای صحیح این رول نیست. ابتدا فایل index.html را در دایرکتوری ~ / role / apache / files ایجاد کنید: $ cd ~/roles/apache/files $ nano index.html موارد زیر را در ویرایشگر پیست کنید ، سپس آن را ذخیره کنید و ببندید: <html> <head><title>Configuration Management Hands On</title></head> <h1>This server was provisioned using <strong>Ansible</strong></h1> </html> سپس الگوی vhost.tpl را ویرایش خواهیم کرد. به دیرکتوری templates رفته و فایل را با nano ویرایش کنید: $ cd ~/roles/apache/templates $ nano vhost.tpl این خطوط را در ویرایشگر پیست کنید ، سپس آن را ذخیره کرده و ببندید: <VirtualHost *:80> ServerAdmin webmaster@localhost DocumentRoot {{ doc_root }} <Directory {{ doc_root }}> AllowOverride All Require all granted </Directory> </VirtualHost> دایرکتوری متا اگر رول ما به رول دیگری بستگی داشت ، می توانستیم فایلی در دایرکتوری متا به نام main.yml اضافه کنیم. این فایل ممکن است مشخص کند که این رول به رولی به نام "apt" بستگی دارد. در رول Apache که ما ایجاد کرده ایم هیچ وابستگی لازم نداریم. با این حال ، در صورت نیاز فرضی به رول دیگری مانند "apt" ، فایل در ~ / role / apache / meta / main.yml ممکن است به شرح زیر باشد: --- dependencies: - apt این تضمین می کند که رول "apt" قبل از رول Apache ما اجرا می شود. ایجاد وابستگی هایی مانند این برای رول های پیچیده تری که قبل از اجرای رول واقعی نیاز به وجود سایر نرم افزارها یا پیکربندی ها دارند، مفید است. دایرکتوری Vars ما قبلاً گفتیم که یک دایرکتوری "vars" وجود دارد که می تواند برای تعیین متغیرها برای رول ما استفاده شود. در حالی که پیکربندی پارامترهای پیش فرض برای یک رول از طریق فایل vars / main.yml ممکن است ، این معمولاً برای رول های کوچکتر توصیه نمی شود. دلیل استفاده نکردن از دایرکتوری "vars" این است که باعث می شود جزئیات پیکربندی شما در سلسله مراتب رول ها قرار بگیرد. رول بیشتر وظایف عمومی و وابستگی را به عهده دارد ، در حالی که متغیرها داده پیکربندی هستند. اتصال این دو ، استفاده مجدد از رول شما در جای دیگر را دشوارتر می کند. در عوض ، بهتر است جزئیات پیکربندی را خارج از رول مشخص کنید تا بتوانید به راحتی رول را بدون نگرانی از افشای اطلاعات حساس به اشتراک بگذارید. همچنین ، متغیرهای اعلام شده در یک رول به راحتی توسط متغیرهای مکانهای دیگر رد می شوند. خیلی بهتر است داده های متغیر را در playbookهایی قرار دهید که برای کارهای خاص استفاده می شوند. با این حال ، ذکر دایرکتوری "vars" هنوز هم خالی از لطف نیست، زیرا با رول های پیچیده تر مفید است. به عنوان مثال ، اگر یک رول به پشتیبانی از توزیع های مختلف لینوکس نیاز دارد ، تعیین مقادیر پیش فرض برای متغیرها می تواند برای مدیریت نام های مختلف بسته ها ، نسخه ها و تنظیمات مفید باشد. شمول فایل های دیگر بعضی مواقع وقتی رول ها با وظایف متعدد ایجاد می کنید ، درک و فهم وابستگی ها یا منطق شرطی دشوار خواهد شد. در چنین شرایطی می توانید وظایف خود را در فایل های خود تقسیم کرده و آنها را در tasks/main.yml قرار دهید. به عنوان مثال ، اگر ما یک مجموعه کار اضافی برای پیکربندی TLS برای

سرور مجازی Apache خود داشتیم ، می توانستیم آن ها را در فایل خودشان جدا کنیم. ما می توانیم فایل tasks/tls.yml را فراخوانی کنیم و آن را مانند این در فایل tasks/main.yml قرار دهیم: . . . tasks: - include: roles/apache/tasks/tls.yml یک Playbook اسکلتی ایجاد کنید اکنون که ساختار رول خود را پیکربندی کرده ایم ، می توانیم آن را با حداقل playbook در مقایسه با نسخه یکپارچه در ابتدای این آموزش استفاده کنیم. استفاده از رول ها به این طریق به ما این امکان را می دهد تا از playbooks استفاده کنیم تا آنچه را که

سرور مجازی باید انجام دهد را بدون نیاز به تکرار همیشگی وظایف برای انجام این کار ، اعلان کنیم. برای ایجاد یک playbook حداقل که شامل رول Apache ما باشد ، از دایرکتوری رول ها (دایرکتوری هوم ما در این مثال). cd out کنید. اکنون می توانیم یک فایل playbook ایجاد کنیم: $ cd ~ $ nano playbook.yml پس از باز کردن فایل ، موارد زیر را پیست کنید و سپس فایل را ذخیره کرده و ببندید: --- - hosts: all become: true roles: - apache vars: - doc_root: /var/www/example اطلاعات بسیار کمی در این فایل مورد نیاز است. ابتدا

سرور مجازی هایی را که می خواهیم این رول را اجرا کنند ، لیست می کنیم ، بنابراین از - hosts: all استفاده می کنیم . اگر گروهی از هاست ها به نام webservers را داشتید می توانستید آنها را هدف قرار دهید. در مرحله بعد ، اعلام می کنیم که از چه رول هایی استفاده می کنیم. در این حالت فقط یکی وجود دارد ، بنابراین از خط - apache استفاده می کنیم. این کل playbook ما است که بسیار کوچک و خواندن و فهمیدن آن سریع است. مرتب کردن playbook هایی مانند این به ما امکان می دهد تا به جای فعالیت روی کارهای شخصی ، روی اهداف کلی برای پیکربندی

سرور مجازی تمرکز کنیم. حتی نکته بهتر آن که، اگر چندین رول مورد نیاز داشته باشیم ، اکنون می توانیم آنها را در بخش رول ها در playbook خود لیست کنیم و آنها به ترتیبی که ظاهر می شوند اجرا شوند. به عنوان مثال ، اگر ما برای راه اندازی

سرور مجازی وردپرس با استفاده از Apache و MySQL رول هایی داشتیم ، احتمالا playbook داشتیم که مشابه زیر میبود: --- - hosts: wordpress_hosts become: true roles: - apache - php - mysql - wordpress vars: - doc_root: /var/www/example این ساختار playbook به ما امکان می دهد درباره این که می خواهیم یک

سرور مجازی چگونه باشد ، خیلی دقیق پیش برویم. سرانجام ، از آنجا که playbook ها رول ها را فرا میخوانند ، دستور اجرای ما دقیقاً مشابه حالتی است که گویا همه در یک فایل واحد قرار گرفته اند: $ ansible-playbook playbook.yml Output PLAY [all] ****************************************************************************************** TASK [Gathering Facts] ****************************************************** ok: [64.225.15.1] TASK [apache : Update apt] ************************************************** ok: [64.225.15.1] TASK [apache : Install Apache] ********************************************** changed: [64.225.15.1] TASK [apache : Create custom document root] ********************************* changed: [64.225.15.1] TASK [apache : Set up HTML file] ******************************************** changed: [64.225.15.1] TASK [apache : Set up Apache virtual host file] ***************************** changed: [64.225.15.1] RUNNING HANDLER [apache : restart apache] *********************************** changed: [64.225.15.1] PLAY RECAP ****************************************************************** 64.225.15.1 : ok=7 changed=5 unreachable=0 failed=0 به عنوان مثال می توانید فایل playbook.yml به نام apache.yml را فراخوانی کنید ، تا نام فایل رول (های) موجود در آن را منعکس کند. گلکسی Ansible آموزش در مورد رول های Ansible بدون بررسی منابع موجود از طریق Galaxy Ansible کامل نخواهد بود. کهکشان جستجوگر ، منبعی از رول های کمکی کاربر است که می توانید برای انجام کارهای مختلف بدون نیاز به نوشتن آنها ، به playbooks اضافه کنید. به عنوان مثال ، می توانیم یک ماژول مفید Apache به نام mod_security2 را به playbook خود اضافه کنیم تا آپاچی را با برخی تنظیمات امنیتی اضافی پیکربندی کنیم. ما از یک رول ansible Galaxy با عنوان apache_modsecurance استفاده خواهیم کرد. برای استفاده از این رول ، آن را به صورت محلی دانلود خواهیم کرد و سپس آن را در playbook خود قرار خواهیم داد. ابتدا با ابزار ansible-galaxy آشنا می شویم. ما با استفاده از ابزار Galaxy را جستجو خواهیم کرد و سپس یک رول را از لیست انتخاب شده از دستور جستجو انتخاب می کنیم: $ ansible-galaxy search "PHP for RedHat/CentOS/Fedora/Debian/Ubuntu" دستور جستجو خروجی شبیه به زیر را به همراه خواهد داشت: Output Found 21 roles matching your search: Name Description ---- ----------- alikins.php PHP for RedHat/CentOS/Fedora/Debian/Ubuntu. bpresles.php PHP for RedHat/CentOS/Fedora/Debian/Ubuntu. entanet_devops.ansible_role_php PHP for RedHat/CentOS/Fedora/Debian/Ubuntu. esperdyne.php PHP for RedHat/CentOS/Fedora/Debian/Ubuntu. fidanf.php PHP for RedHat/CentOS/Fedora/Debian/Ubuntu. frogasia.ansible-role-php PHP for RedHat/CentOS/Fedora/Debian/Ubuntu. geerlingguy.php PHP for RedHat/CentOS/Fedora/Debian/Ubuntu. icamys.php PHP for RedHat/CentOS/Fedora/Debian/Ubuntu. jhu-sheridan-libraries.php PHP for RedHat/CentOS/Fedora/Debian/Ubuntu. jibsan94.ansible_php PHP for RedHat/CentOS/Fedora/Debian/Ubuntu. KAMI911.ansible_role_php PHP for RedHat/CentOS/Fedora/Debian/Ubuntu. monsieurbiz.geerlingguy_php PHP for RedHat/CentOS/Fedora/Debian/Ubuntu. nesh-younify.ansible-role-php PHP for RedHat/CentOS/Fedora/Debian/Ubuntu. net2grid.php PHP for RedHat/CentOS/Fedora/Debian/Ubuntu. thom8.ansible-role-php PHP for RedHat/CentOS/Fedora/Debian/Ubuntu. v0rts.php PHP for RedHat/CentOS/Fedora/Debian/Ubuntu. vahubert.php PHP for RedHat/CentOS/Fedora/Debian/Ubuntu. Vaizard.mage_php PHP for RedHat/CentOS/Fedora/Debian/Ubuntu. viasite-ansible.php PHP for RedHat/CentOS/Fedora/Debian/Ubuntu. vvgelder.ansible-role-php PHP for RedHat/CentOS/Fedora/Debian/Ubuntu. (END) اگر نتایج زیادی حاصل شود ، Ansible از دستور less برای خروجی نتایج جستجو استفاده می کند ، که تا زمانی که q را فشار دهید، ترمینال شما را مسدود می کند. این کار برای زمانی مفید است که نتایج جستجو گسترده باشد و شما باید در میان آنها صفحه گذاری کنید ، که می توانید با فشار دادن space این کار را انجام دهید. ما رول geerlingguy.php را برای playbook خود انتخاب خواهیم کرد. اگر مایل هستید اطلاعات بیشتری درباره رول هایی که با نتایج جستجوی شما برگشته اند ، بخوانید ، می توانید به صفحه جستجوی Galaxy مراجعه کرده و اسم رول مورد نظر خود را در محل نام رول پیست کنید. برای دانلود رول برای استفاده در playbook ، از دستور installible-galaxy استفاده می کنیم: $ ansible-galaxy install geerlingguy.php هنگامی که آن فرمان را اجرا می کنید ، باید خروجی مانند این را مشاهده کنید: Output - downloading role 'php', owned by geerlingguy - downloading role from https://github.com/geerlingguy/ansible-role-php/archive/3.7.0.tar.gz - extracting geerlingguy.php to /home/sammy/.ansible/roles/geerlingguy.php - geerlingguy.php (3.7.0) was installed successfully اکنون می توانیم رول را به فایل playbook.yml اضافه کنیم: --- - hosts: all become: true roles: - apache - geerlingguy.php vars: - doc_root: /var/www/example - php_default_version_debian: "7.2" با قرار دادن رول پس از رول apache، اطمینان می دهیم که Apache قبل از تنظیمات مربوط به مکان رول geerlingguy.php ، روی سیستمهای از راه دور تنظیم و پیکربندی شده است. بسته به نحوه رفتار

سرور مجازی های از راه دور ، می توانیم رول های mysql و wordpress را نیز به هر ترتیبی که انتخاب می کنیم ، شامل شویم. اجرای ansible-playbook playbook.yml با رول Galaxy اضافه شده منجر به خروجی زیر خواهد شد: Output PLAY [all] ********************************************************************* TASK [Gathering Facts] ********************************************************* ok: [64.225.15.1] TASK [apache : Update apt] ***************************************************** changed: [64.225.15.1] TASK [apache : Install Apache] ************************************************* changed: [64.225.15.1] TASK [apache : Install modsecurity] ******************************************** changed: [64.225.15.1] TASK [apache : Create custom document root] ************************************ changed: [64.225.15.1] TASK [apache : Set up HTML file] *********************************************** changed: [64.225.15.1] TASK [apache : Set up Apache virtual host file] ******************************** changed: [64.225.15.1] TASK [geerlingguy.php : Include OS-specific variables.] ************************ ok: [64.225.15.1] TASK [geerlingguy.php : Define php_packages.] ********************************** ok: [64.225.15.1] . . . PLAY RECAP ********************************************************************* 64.225.15.1 : ok=37 changed=15 unreachable=0 failed=0 (END) نتیجه رول های Ansible یک روش عالی برای ساختاردهی و تعریف چگونگی

سرور مجازی های شما میباشد. حتی اگر فقط به playbooks برای هر یک از

سرور مجازی های خود تکیه کرده اید ، ارزشش را دارد که نحوه استفاده از آنها را بیاموزید. اگر قصد استفاده گسترده از Ansible را دارید ، رول ها پیکربندی سطح میزبان را جدا از وظیفه خود نگه می دارند ، و اطمینان حاصل می کنند که کد Ansible شما تمیز و خوانا است. از همه مهمتر ، رول ها به شما امکان می دهند تا به راحتی از کد استفاده کرده و به اشتراک بگذارید و تغییرات خود را به صورت کنترل شده و مدولار پیاده سازی کنید.


مقدمه

خوشه بندی با توزیع تغییرات در سرورهای مختلف ، دسترس پذیری بالایی به پایگاه داده شما می دهد. در صورت عدم موفقیت یکی از موارد ، بقیه سریعاً برای سرویس دهی در دسترس هستند. خوشه ها در دو پیکربندی کلی ، فعال-منفعل و فعال-فعال ارائه می شوند. در خوشه های فعال منفعل، همه نوشتن ها بر روی یک

سرور مجازی فعال انجام می شود و سپس در یک یا چند

سرور مجازی منفعل کپی می شوند که آماده هستند فقط در صورت خرابی

سرور مجازی فعال ، به کار بیفتند. برخی از خوشه های فعال منفعل نیز امکان انجام SELECT بر روی گره های منفعل را می دهند. در یک خوشه فعال فعال ، هر گره خواندن -نوشتن است و تغییر ایجاد شده در یکی ، برای همه تکرار می شود. MySQL یک سیستم مدیریت پایگاه داده رابطه ای منبع باز است که یک انتخاب محبوب برای پایگاه داده های SQL میباشد. Galera یک راه حل خوشه بندی بانک اطلاعاتی است که شما را قادر می سازد با استفاده از همانند سازی همزمان ، خوشه های چند مستر تنظیم کنید. Galera به طور خودکار داده ها را بر روی گره های مختلف به صورت همگام سازی مدیریت میکند در حالی که به شما امکان می دهد برای هر کدام از گره های موجود در این گروه ، درخواست هایی را بخوانید و بنویسید. می توانید اطلاعات بیشتری در مورد Galera در صفحه مطالب رسمی کسب کنید. در این راهنما ، یک خوشه فعال MySQL Galera را پیکربندی می کنید. برای اهداف نمایشی ، سه دراپلت Ubuntu 18.04 را که به عنوان گره در خوشه عمل می کنند ، پیکربندی کرده و آزمایش می کنید. این مقدار گره کوچکترین خوشه قابل تنظیم است. پیش نیازها برای دنبال کردن مطلب ، علاوه بر موارد زیر ، به یک حساب

vpsgol نیز نیاز دارید: سه دراپلت Ubuntu 18.04 با شبکه خصوصی فعال شده که هر کدام دارای یک کاربر غیر ریشه با امتیازات sudo هستند. برای راه اندازی شبکه های خصوصی در سه دراپلت ، راهنمای راه اندازی سریع شبکه را دنبال کنید. برای کمک به راه اندازی یک کاربر غیر ریشه با امتیازات sudo ، راهنمای اولیه راه اندازی

سرور مجازی ما با آموزش اوبونتو 18.04 را دنبال کنید. در حالی که مراحل این آموزش برای دراپلت های

vpsgol نوشته و تست شده است ، بسیاری از آنها در سرورهای غیر

vpsgol نیز که شبکه های خصوصی را فعال می کنند کاربرد دارند. مرحله 1 - اضافه کردن منابع MySQL به همه سرورها در این مرحله منابع بسته MySQL و Galera را به هر سه

سرور مجازی خود اضافه می کنید تا بتوانید نسخه صحیح MySQL و Galera مورد استفاده در این آموزش را نصب کنید. توجه: Codership ، شرکت پشتیبان خوشه Galera ، منبع Galera را حفظ می کند ، اما توجه داشته باشید که همه منابع خارجی قابل اعتماد نیستند. مطمئن شوید که فقط از منابع معتبر نصب کنید. در این آموزش از MySQL نسخه 5.7 استفاده خواهید کرد. کار را با اضافه کردن منبع خارجی اوبونتو که توسط پروژه Galera برای سه

سرور مجازی شما ذخیره شده است شروع می کنید. پس از به روزرسانی منابع هر سه

سرور مجازی ، شما می توانید MySQL را به همراه Galera نصب کنید. ابتدا ، در هر سه

سرور مجازی خود ، کلید منبع Galera را با دستور apt-key اضافه کنید ، که مدیر بسته APT برای تأیید صحت این بسته از آن استفاده می کند: $ sudo apt-key adv --keyserver keyserver.ubuntu.com --recv BC19DDBA بعد از چند ثانیه ، خروجی زیر را دریافت خواهید کرد: Executing: /tmp/apt-key-gpghome.RG5cTZjQo0/gpg.1.sh --keyserver keyserver.ubuntu.com --recv BC19DDBA gpg: key D669017EBC19DDBA: public key "Codership Oy <info@galeracluster.com>" imported gpg: Total number processed: 1 gpg: imported: 1 پس از داشتن کلید قابل اعتماد در بانک اطلاعاتی هر

سرور مجازی ، می توانید منابع را اضافه کنید. برای این کار ، یک فایل جدید به نام galera.list را در فهرست /etc/apt/source.list.d/ هر

سرور مجازی ایجاد کنید: $ sudo nano /etc/apt/sources.list.d/galera.list در ویرایشگر متن ، سطرهای زیر را اضافه کنید ، که منابع مناسب را در اختیار مدیر بسته APT قرار می دهد: /etc/apt/sources.list.d/galera.list deb http://releases.galeracluster.com/mysql-wsrep-5.7/ubuntu bionic main deb http://releases.galeracluster.com/galera-3/ubuntu bionic main فایل ها را روی هر

سرور مجازی ذخیره کنید و ببندید (CTRL + X ، Y ، سپس ENTER را فشار دهید) منابع codership اکنون برای هر سه

سرور مجازی شما در دسترس است. با این حال ، مهم است که به apt دستور دهید که منابع Codership را به دیگر منابع ترجیح دهد تا از نصب نسخه های پچ شده نرم افزار مورد نیاز برای ایجاد یک خوشه Galera اطمینان حاصل شود. برای این کار ، فایل جدید دیگری به نام galera.pref را در فهرست /etc/apt/preferences.d/ هر

سرور مجازی ایجاد کنید: $ sudo nano /etc/apt/preferences.d/galera.pref خطوط زیر را به ویرایشگر متن اضافه کنید: /etc/apt/preferences.d/galera.pref # Prefer Codership repository Package: * Pin: origin releases.galeracluster.com Pin-Priority: 1001 آن فایل را ذخیره کرده و ببندید ، سپس دستور زیر را روی هر

سرور مجازی اجرا کنید تا مانیفست بسته از منابع جدید را شامل شود: $sudo apt update اکنون که منبع بسته را با موفقیت روی هر سه

سرور مجازی خود اضافه کردید ، آماده هستید MySQL را در بخش بعدی نصب کنید. مرحله 2 - نصب MySQL در تمام سرورها در این مرحله بسته MySQL را روی سه

سرور مجازی خود نصب خواهید کرد. برای نصب نسخه MySQL پچ شده برای کار با Galera ، و همچنین بسته Galera ، دستور زیر را در هر سه

سرور مجازی اجرا کنید. $ sudo apt install galera-3 mysql-wsrep-5.7 از شما خواسته می شود که تأیید کنید آیا نصب را ادامه می دهید یا خیر. Y را وارد کنید تا نصب ادامه یابد. در حین نصب از شما خواسته می شود که یک رمز عبور برای کاربر اجرایی MySQL ایجاد کنید. یک رمز عبور ایمن تنظیم کنید و ENTER را برای ادامه فشار دهید. پس از نصب MySQL ، مشخصات پیش فرض AppArmor را غیرفعال می کنید تا مطابق مطالب مربوطه Galera ، از عملکرد صحیح Galera اطمینان حاصل کنید. AppArmor یک ماژول هسته برای لینوکس است که عملکرد کنترل دسترسی را برای خدمات از طریق پروفایل های امنیتی فراهم می کند. AppArmor را با اجرای دستور زیر در هر

سرور مجازی غیرفعال کنید: $ sudo ln -s /etc/apparmor.d/usr.sbin.mysqld /etc/apparmor.d/disable/ این دستور یک پیوند نمادین از پروفایل MySQL را به فهرست disable اضافه می کند ، که نمایه را در بوت غیرفعال می کند. سپس دستور زیر را اجرا کنید تا تعریف MySQL را که قبلاً در هسته بارگذاری شده است حذف کنید. $ sudo apparmor_parser -R /etc/apparmor.d/usr.sbin.mysqld پس از نصب MySQL و نمایه AppArmor در اولین

سرور مجازی خود ، این مراحل را برای دو

سرور مجازی دیگر خود تکرار کنید. اکنون که MySQL را با موفقیت در هر سه

سرور مجازی نصب کردید ، می توانید در قسمت بعدی به مرحله تنظیمات بروید. مرحله 3 - پیکربندی گره اول در این مرحله اولین گره خود را پیکربندی می کنید. هر گره در خوشه نیاز به پیکربندی تقریباً یکسان دارد. به همین دلیل تمام پیکربندی های موجود در دستگاه اول خود را انجام داده و سپس آن را در گره های دیگر کپی می کنید. به طور پیش فرض ، MySQL پیکربندی شده است تا دایرکتوری /etc/mysql/conf.d را بررسی کند تا تنظیمات اضافی پیکربندی را از فایل های منتهی به .cnf دریافت کند. در اولین

سرور مجازی خود ، با همه دستورالعملهای مربوط به خوشه ، یک فایل در این فهرست ایجاد کنید: Glara-node01$ sudo nano /etc/mysql/conf.d/galera.cnf پیکربندی زیر را در فایل اضافه کنید. پیکربندی گزینه های مختلف خوشه ای ، جزئیات مربوط به

سرور مجازی فعلی و سایر سرورهای موجود در خوشه و تنظیمات مربوط به همانند سازی را مشخص می کند. توجه داشته باشید که آدرسهای IP موجود در پیکربندی ، آدرسهای خصوصی سرورهای مربوطه شما هستند. خطوط هایلایت شده را با آدرس های IP مناسب جایگزین کنید. /etc/mysql/conf.d/galera.cnf [mysqld] binlog_format=ROW default-storage-engine=innodb innodb_autoinc_lock_mode=2 bind-address=0.0.0.0 # Galera Provider Configuration wsrep_on=ON wsrep_provider=/usr/lib/galera/libgalera_smm.so # Galera Cluster Configuration wsrep_cluster_name="test_cluster" wsrep_cluster_address="gcomm://First_Node_IP,Second_Node_IP,Third_Node_IP" # Galera Synchronization Configuration wsrep_sst_method=rsync # Galera Node Configuration wsrep_node_address="This_Node_IP" wsrep_node_name="This_Node_Name" بخش اول تنظیمات MySQL را اصلاح و یا دوباره اجرا می کند که باعث می شود خوشه به درستی کار کند. به عنوان مثال ، Galera با MyISAM یا موتورهای ذخیره سازی غیر معاملاتی مشابه کار نخواهد کرد ، و mysqld نباید به آدرس IP مربوط به localhost محدود شود. می توانید در مورد تنظیمات با جزئیات بیشتری در صفحه پیکربندی سیستم Galera Cluster اطلاعات کسب کنید. بخش "پیکربندی ارائه دهنده Galera" اجزای MySQL را که یک API همانند سازی WritSet را ارائه می دهد ، پیکربندی می کند. که در این مورد برای شما Galera است ، زیرا Galera یک ارائه دهنده wsrep (WritSet Replication) است. شما برای پیکربندی محیط تکثیر اولیه ، پارامترهای کلی را تعیین می کنید. این نیاز به هیچگونه سفارشی سازی ندارد ، اما می توانید در مورد گزینه های پیکربندی Galera در مطالب موجود اطلاعات بیشتری کسب کنید. بخش "تنظیمات خوشه Galera" ، خوشه را تعریف می کند ، اعضای خوشه را با آدرس IP یا نام دامنه قابل تعیین شناسایی می کند و نامی را برای این خوشه ایجاد می کند تا از عضویت در گروه صحیح اطمینان حاصل کند. می توانید wsrep_cluster_name را به چیزی با معنی تر از test_cluster تغییر دهید یا آن را به همین صورت رها کنید ، اما باید wsrep_cluster_address را با آدرس های IP خصوصی سه

سرور مجازی خود به روز کنید. بخش پیکربندی همگام سازی Galeraچگونگی ارتباط و همگام سازی داده های خوشه بین اعضا را تعریف می شود. این فقط برای تبدیل وضعیت در هنگامی که یک گره به صورت آنلاین درمیاید، استفاده می شود. برای راه اندازی اولیه خود ، شما از rsync استفاده می کنید ، زیرا معمولاً در دسترس تر است و آنچه را که اکنون به آن نیاز دارید انجام می دهد. قسمت پیکربندی گره Galera آدرس IP و نام

سرور مجازی فعلی را مشخص می کند. این کار هنگام تلاش برای تشخیص مشکلات موجود در ورودها و برای ارجاع به هر

سرور مجازی به روش های مختلف مفید است.wsrep_node_address باید با آدرس دستگاهی که در آن قرار دارید مطابقت داشته باشد ، اما می توانید هر نامی را که می خواهید انتخاب کنید تا به شما در شناسایی گره در فایل های log کمک کند. هنگامی که از فایل پیکربندی خوشه خود راضی شدید ، محتویات را در کلیپ بورد خود کپی کنید ، سپس فایل را ذخیره کنید و ببندید. اکنون که اولین گره خود را با موفقیت پیکربندی کرده اید ، می توانید در قسمت بعدی پیکربندی گره های باقی مانده را انجام دهید. مرحله 4 - پیکربندی گره های باقی مانده در این مرحله ، دو گره باقی مانده را پیکربندی می کنید. در گره دوم ، فایل پیکربندی را باز کنید: Glara-node02$ sudo nano /etc/mysql/conf.d/galera.cnf پیکربندی خود را از اولین گره کپی کنید و سپس Galera Node Configuration را به روز کنید تا از آدرس IP یا نام دامنه مناسب برای گره خاصی که تنظیم می کنید استفاده کنید. سرانجام ، نام آن را به روز کنید ، که می توانید هر چیزی که به شما در شناسایی گره موجود در فایل های log کمک میکند ، استفاده نمایید: /etc/mysql/conf.d/galera.cnf . . . # Galera Node Configuration wsrep_node_address="This_Node_IP" wsrep_node_name="This_Node_Name" . . . فایل را ذخیره کنید و از آن خارج شوید. پس از اتمام این مراحل ، آنها را بر روی گره سوم تکرار کنید. شما تقریباً آماده هستید تا این خوشه را به کار بگیرید ، اما قبل از انجام این کار ، اطمینان حاصل کنید که درگاه های مناسب در فایروال شما باز است. مرحله 5 - باز کردن فایروال در هر

سرور مجازی در این مرحله فایروال خود را پیکربندی می کنید تا درگاه های مورد نیاز برای ارتباط بین گره ای باز باشد. در هر

سرور مجازی ، وضعیت اجرای فایروال را با اجرای دستور زیر بررسی کنید: $ sudo ufw status در این حالت ، فقط SSH مجاز است از طریق: Output Status: active To Action From -- ------ ---- OpenSSH ALLOW Anywhere OpenSSH (v6) ALLOW Anywhere (v6) از آنجا که فقط ترافیک SSH در این مورد مجاز است ، لازم است قوانینی را برای ترافیک MySQL و Galera اضافه کنید. اگر سعی کردید خوشه را شروع کنید ، به دلیل این قوانین فایروال با شکست مواجه میشوید. Galera می تواند از چهار پورت استفاده کند: 3306 برای اتصالات مشتری MySQL و انتقال اسنپ شات که از روش mysqldump استفاده می کنند. 4567 برای ترافیک کپی خوشه Galera. همانندسازی Multicast هم از تبدیل UDP و هم TCP در این پورت استفاده می کند. 4568 برای تبدیل وضعیت افزایشی. 4444 برای همه موارد دیگر انتقال اسنپ شات. در این مثال ، هر زمان که ستاپ خود را انجام دادید ، هر چهار پورت را باز خواهید کرد. هنگامی که تأیید کردید که عملیات کپی در حال کار کردن است ، بهتر است پورت هایی را که در واقع استفاده نمی کنید ببندید و ترافیک را فقط به سرورهای موجود در خوشه محدود کنید. درگاه ها را با دستورات زیر باز کنید: $ sudo ufw allow 3306,4567,4568,4444/tcp $ sudo ufw allow 4567/udp توجه: بسته به آنچه در سرورهای شما اجرا می شود ، ممکن است لازم باشد سریعاً دسترسی را محدود کنید. راهنمای UFW Essentials: قوانین و دستورات معمول فایروال می تواند در این امر کمک کند. بعد از تنظیم فایروال خود در گره اول ، همان تنظیمات فایروال را در گره دوم و سوم ایجاد کنید. اکنون که فایروال ها را با موفقیت پیکربندی کرده اید ، آماده هستید تا در مرحله بعدی خوشه را شروع کنید. مرحله 6 - شروع خوشه در این مرحله خوشه MySQL Galera خود را شروع می کنید. اما ابتدا سرویس سیستمی MySQL را فعال می کنید ، به طوری که هر بار که

سرور مجازی ریبوت میشود ، MySQL به طور خودکار شروع می شود. MySQL را فعال کنید تا در هر سه

سرور مجازی در حین بوت شروع به کار کند برای فعال کردن سرویس سیستمی MySQL از دستور زیر در هر سه

سرور مجازی استفاده کنید: $ sudo systemctl enable mysql خروجی زیر را مشاهده خواهید کرد که نشان می دهد این سرویس با موفقیت به لیست خدمات استارآپ مرتبط شده است: Output Created symlink /etc/systemd/system/multi-user.target.wants/mysql.service → /lib/systemd/system/mysql.service. اکنون که mysql را فعال کرده اید که در بوت همه سرورها شروع به کار کند ، آماده هستید تا این خوشه را ارتقا دهید. گره اول را بالا بیاورید برای بالا بردن گره اول ، باید از یک اسکریپت راه اندازی ویژه استفاده کنید. روشی که خوشه خود را پیکربندی کرده اید ، هر گره ای که آنلاین می شود سعی می کند به حداقل یک گره دیگر که در فایل galera.cnf مشخص شده است وصل شود تا حالت اولیه خود را بدست آورد. بدون استفاده از اسکریپت mysqld_bootstrap که به systemd اجازه می دهد از پارامتر --wsrep-new-cluster عبور کند ، یک systemctl start mysql معمول با شکست مواجه میشود زیرا هیچ گره ای برای اتصال گره اول به آن وجود ندارد. دستور زیر را در اولین

سرور مجازی خود اجرا کنید: Galera-node-01$ sudo mysqld_bootstrap این دستور هیچ گونه خروجی را در اجرای موفقیت آمیز نشان نمی دهد. با موفقیت این اسکریپت ، گره به عنوان بخشی از خوشه ثبت می شود و می توانید آن را با دستور زیر مشاهده کنید: Galera-node-01$ mysql -u root -p -e "SHOW STATUS LIKE 'wsrep_cluster_size'" پس از وارد کردن رمز عبور خود ، خروجی زیر را مشاهده خواهید کرد که نشان می دهد یک گره در خوشه وجود دارد: Output +--------------------+-------+ | Variable_name | Value | +--------------------+-------+ | wsrep_cluster_size | 1 | +--------------------+-------+ در گره های باقیمانده می توانید به طور عادی mysql را شروع کنید. آنها به جستجوی هر یک از اعضای لیست خوشه های آنلاین می پردازند و وقتی یکی را پیدا کردند به این خوشه می پیوندند. گره دوم را بالا بیاورید اکنون می توانید گره دوم را بالا بیاورید. mysql را شروع کنید: Galera-node-02$ sudo systemctl start mysql هیچ خروجی در اجرای موفق نمایش داده نمی شود. با آنلاین شدن هر گره ، اندازه خوشه افزایش می یابد: Galera-node-02$ mysql -u root -p -e "SHOW STATUS LIKE 'wsrep_cluster_size'" خروجی زیر را خواهید دید که نشان می دهد که گره دوم به خوشه پیوسته است و در کل دو گره وجود دارد. Output +--------------------+-------+ | Variable_name | Value | +--------------------+-------+ | wsrep_cluster_size | 2 | +--------------------+-------+ گره سوم را بالا ببرید اکنون زمان آن رسیده که گره سوم را بالا ببریدم. Mysql را شروع کنید: Galera-node-03$ sudo systemctl start mysql دستور زیر را برای یافتن اندازه خوشه اجرا کنید: Galera-node-03$ mysql -u root -p -e "SHOW STATUS LIKE 'wsrep_cluster_size'" خروجی زیر را مشاهده خواهید کرد که نشان می دهد گره سوم به خوشه پیوسته است و تعداد کل گره های موجود در خوشه سه است. Output +--------------------+-------+ | Variable_name | Value | +--------------------+-------+ | wsrep_cluster_size | 3 | +--------------------+-------+ در این مرحله ، کلیه خوشه ها بصورت آنلاین و با موفقیت ارتباط برقرار می کنند. در مرحله بعد می توانید با آزمایش همانند سازی در بخش زیر ، از تنظیم کار اطمینان حاصل کنید. مرحله 7 – تست همانندسازی شما مراحل تا این مرحله طی کرده اید تا خوشه شما بتواند کپی کردن را از هر گره به گره دیگر که همانندسازی فعال-فعال نامیده میشود، انجام دهد. در این مرحله ، شما تست خواهید کرد و میبینید که آیا همانند سازی همانطور که انتظار می رود، کار می کند. در گره اول بنویسید با ایجاد تغییر در پایگاه داده در اولین گره خود شروع خواهید کرد. دستورات زیر یک پایگاه داده به نام playground و یک جدول درون این پایگاه داده با نام equipment ایجاد می کنند. Galera-node-01$ mysql -u root -p -e 'CREATE DATABASE playground; Galera-node-01$ CREATE TABLE playground.equipment ( id INT NOT NULL AUTO_INCREMENT, type VARCHAR(50), quant INT, color VARCHAR(25), PRIMARY KEY(id)); Galera-node-01$ INSERT INTO playground.equipment (type, quant, color) VALUES ("slide", 2, "blue");' در دستور قبلی ، عبارت CREATE DATABASE یک دیتابیس با نام playground ایجاد می کند. عبارت CREATE یک جدول به نام equipment درون playground ایجاد می کند که دارای یک ستون شناسه افزایش خودکار به نام id و سایر ستون ها است. ستون type ، ستون quant و ستون color به ترتیب برای ذخیره نوع و کمیت و رنگ تجهیزات تعریف شده است. عبارت INSERT یک ورودی از نوع اسلاید ، کمیت 2 و رنگ آبی را درج می کند. اکنون یک مقدار در جدول خود دارید. داده ها را در گره دوم بخوانید و بنویسید. در مرحله بعدی ، به منظور بررسی اینکه کپی در حال کار کردن است ، به گره دوم نگاه کنید: Galera-node-02$ mysql -u root -p -e 'SELECT * FROM playground.equipment;' داده هایی که در گره اول وارد کرده اید در مرحله دوم قابل مشاهده خواهد بود ، که اثبات میکند این همانندسازی کار می کند: Output +----+-------+-------+-------+ | id | type | quant | color | +----+-------+-------+-------+ | 1 | slide | 2 | blue | +----+-------+-------+-------+ از همین گره ، داده ها را در خوشه بنویسید: Galera-node-02$ mysql -u root -p -e 'INSERT INTO playground.equipment (type, quant, color) VALUES ("swing", 10, "yellow");' در گره سوم بخوانید و بنویسید از گره سوم ، می توانید با فراخوانی مجدد جدول ، تمام این داده ها را بخوانید: Galera-node-03$ mysql -u root -p -e 'SELECT * FROM playground.equipment;' خروجی زیر را نشان می دهد که دو ردیف را نشان می دهد: Output +----+-------+-------+--------+ | id | type | quant | color | +----+-------+-------+--------+ | 1 | slide | 2 | blue | | 2 | swing | 10 | yellow | +----+-------+-------+--------+ باز هم ، می توانید مقدار دیگری از این گره اضافه کنید: Galera-node-03$ mysql -u root -p -e 'INSERT INTO playground.equipment (type, quant, color) VALUES ("seesaw", 3, "green");' در گره اول بخوانید با بازگشت به گره اول ، می توانید تأیید کنید که داده های شما در همه جا در دسترس است: Galera-node-01$ mysql -u root -p -e 'SELECT * FROM playground.equipment;' خروجی زیر را مشاهده خواهید کرد ، که نشان می دهد ردیف ها در گره اول موجود هستند. Output +----+--------+-------+--------+ | id | type | quant | color | +----+--------+-------+--------+ | 1 | slide | 2 | blue | | 2 | swing | 10 | yellow | | 3 | seesaw | 3 | green | +----+--------+-------+--------+ اکنون با موفقیت تأیید کرده اید که می توانید در همه گره ها بنویسید و این تکرار به درستی انجام می شود. نتیجه در این مرحله ، شما یک خوشه آزمایش Galera سه گره ای پیکربندی کرده اید. اگر قصد دارید از یک خوشه Galera در یک وضعیت تولید استفاده کنید ، توصیه می شود با حداقل کمتر از پنج گره شروع نکنید. قبل از استفاده از تولید ، بهتر است به برخی از عوامل تبدیل اسنپ شات (sst) حالات دیگر از جمله xtrabackup نگاهی بیندازید ، که به شما امکان می دهد گره های جدید را به سرعت و بدون ایجاد اختلال در گره های فعال خود تنظیم کنید. این کار بر کپی کردن واقعی تأثیر نمی گذارد، اما وقتی گره ها شروع می شوند اهمیت پیدا میکند. همچنین ممکن است به راه حل های خوشه بندی دیگری برای MySQL علاقه مند باشید ، در این صورت می توانید نحوه آموزش ایجاد یک خوشه MySQL چند گره را در Ubuntu 18.04 ببینید. اگر می خواهید راه حل پایگاه داده مدیریت شده را امتحان کنید ، به مستندات پایگاه داده های مدیریت شده

vpsgol مراجعه کنید.


مقدمه

Velero یک ابزار پشتیبان مناسب برای خوشه های Kubernetes است که موارد Kubernetes را برای ذخیره سازی مورد به مورد، فشرده سازی و پشتیبان گیری می کند. همچنین با استفاده از ویژگی های اسنپ شات ذخیره سازی واحد ارائه دهنده cloud ، عکس هایی از والیوم های مداوم خوشه شما می گیرد و می تواند موارد و والیوم های ماندگار خوشه را به حالت قبلی بازگرداند. افزونه

vpsgol Velero به شما امکان می دهد تا از حافظه بلوک

vpsgol استفاده کنید تا از والیوم های ماندگار اسنپ شات بگیرید و فضایی به شما میدهد تا از موارد Kubernetes بک آپ تهیه کنید. در هنگام اجرای یک خوشه Kubernetes در

vpsgol ، این به شما امکان می دهد تا به سرعت از وضعیت خوشه خود نسخه پشتیبان تهیه کرده و در صورت بروز مشکل بازیابی کنید. در این آموزش ابزار خط فرمان velero را روی یک دستگاه محلی تنظیم و پیکربندی می کنیم و مؤلفه

سرور مجازی را در خوشه Kubernetes خود مستقر می کنیم. سپس یک نمونه از برنامه Nginx را استفاده می کنیم که از یک والیوم پایدار برای ورود به سیستم استفاده می کند و سپس یک سناریوی بازیابی مشکل را شبیه سازی می کند. پیش نیازها قبل از شروع این آموزش ، موارد زیر را باید در اختیار داشته باشید: در رایانه محلی خود: ⦁ ابزار خط فرمان kubectl ، پیکربندی شده باید تا به خوشه شما متصل شود. می توانید اطلاعات بیشتری در مورد نصب و پیکربندی ر در مطالب Kubernetes بخوانید. ⦁ ابزار خط فرمان gitکه می توانید نحوه نصب git را در شروع با Git بیاموزید. در حساب

vpsgol خود: ⦁ یک خوشه

vpsgol Kubernetes یا یک خوشه Kubernetes (نسخه 1.7.5 یا بالاتر) در دراپلت های

vpsgol. ⦁ سرور DNS که در داخل خوشه شما قرار دارد. اگر از

vpsgol Kubernetes استفاده می کنید ، این به طور پیش فرض اجرا می شود. برای کسب اطلاعات بیشتر در مورد پیکربندی یک سرویس DNS Kubernetes ، از ⦁ Customizing DNS Service در مطالب رسمی Kuberentes کمک بگیرید. ⦁ فضای

vpsgol که موارد پشتیبان گرفته شده Kubernetes شما را ذخیره می کند. برای یادگیری نحوه ایجاد یک فضا ، از ⦁ the Spaces product documentation کمک بگیرید. ⦁ یک جفت کلید دسترسی برای

vpsgol Space. برای یادگیری نحوه ایجاد مجموعه ای از کلیدهای دستیابی ، از ⦁ How to Manage Administrative Access to Spaces کمک بگیرید. ⦁ یک نشانه دسترسی شخصی برای استفاده با

vpsgol API. برای یادگیری نحوه ایجاد یک نشانه دسترسی شخصی ، از ⦁ How to Manage Administrative Access to Spaces کمک بگیرید. اطمینان حاصل کنید که توکن ایجاد شده یا استفاده شده از مجوزهای خواندن / نوشتن و یا اسنپ شات استفاده نمیکند. پس از تنظیم همه این موارد ، آماده شروع کار با این راهنما هستید. مرحله 1 - نصب مشتری Velero ابزار پشتیبان گیری Velero شامل یک مشتری نصب شده بر روی رایانه محلی شما و یک

سرور مجازی است که در خوشه Kubernetes شما اجرا می شود. برای شروع ، مشتری محلی Velero را نصب خواهیم کرد. در مرورگر وب خود ، به صفحه منتشر شده repo Velero GitHub بروید ، نسخه مربوط به سیستم عامل و معماری سیستم خود را پیدا کنید و آدرس پیوند را کپی کنید. برای اهداف این راهنما ، ما از یک

سرور مجازی اوبونتو 18.04 در یک پردازنده x86-64 (یا AMD64) به عنوان دستگاه محلی خود و نسخه Velero v1.2.0 استفاده خواهیم کرد. توجه: برای دنبال کردن این راهنما ، باید v1.2.0 از مشتری Velero را دانلود و نصب کنید. سپس ، از خط فرمان روی رایانه محلی خود ، به دایرکتوری موقت / tmp بروید و cd را در آن قرار دهید: $cd / tmp از wget و پیوندی که قبلاً کپی کرده اید برای دانلود تاربال نسخه استفاده کنید: $wget https: // link_copied_from_release_page پس از اتمام دانلود ، تاربال را با استفاده از tar اکسترکت کنید (توجه داشته باشید که نام فایل بسته به نسخه منتشر شده و سیستم عامل شما ممکن است متفاوت باشد): $tar -xvzf velero-v1.2.0-linux-amd64.tar.gz دیرکتوری / tmp اکنون باید دیرکتوری اکسترکت شده velero-v1.2.0-linux-amd64 و همچنین تاربلی که اخیراً دانلود کرده اید ، را شامل شود. تأیید کنید که می توانید مشتری velero را با اجرای باینری راه اندازی کنید: $./velero-v1.2.0-linux-amd64/velero help شما باید خروجی راهنمایی زیر را مشاهده کنید: Output Velero is a tool for managing disaster recovery, specifically for Kubernetes cluster resources. It provides a simple, configurable, and operationally robust way to back up your application state and associated data. If you're familiar with kubectl, Velero supports a similar model, allowing you to execute commands such as 'velero get backup' and 'velero create schedule'. The same operations can also be performed as 'velero backup get' and 'velero schedule create'. Usage: velero [command] Available Commands: backup Work with backups backup-location Work with backup storage locations bug Report a Velero bug client Velero client related commands completion Output shell completion code for the specified shell (bash or zsh) create Create velero resources delete Delete velero resources describe Describe velero resources get Get velero resources help Help about any command install Install Velero plugin Work with plugins restic Work with restic restore Work with restores schedule Work with schedules snapshot-location Work with snapshot locations version Print the velero version and associated image . . . در این مرحله باید velero قابل اجرا را از دیرکتوری موقت tmp خارج کنید و آن را به PATH اضافه کنید. برای افزودن آن به PATH روی یک سیستم اوبونتو کافیست آن را در /usr/local/bin کپی کنید: $sudo mv velero-v1.2.0-linux-amd64/velero /usr/local/bin/velero مرحله 2 - پیکربندی اطلاعات سری قبل از تنظیم مؤلفه

سرور مجازی Velero ، باید کلیدهای

vpsgol Spaces و نشانه های API خود را آماده کنید. مجدداً با استفاده از دستور cd به دیرکتوری موقت / tmp بروید: $ cd / tmp اکنون یک نسخه از افزونه Velero را برای

vpsgol دانلود خواهیم کرد. به صفحه انتشار نسخه های Github افزونه بروید و پیوندهایی که به.tar.gz ختم میشوند را کپی کنید. از wget و پیوندی که قبلاً کپی کرده اید برای دانلود تاربال نسخه استفاده کنید: $wget https: // link_copied_from_release_page پس از اتمام دانلود ، تاربل را با استفاده از tar اکسترکت کنید (دوباره توجه داشته باشید که نام فایل بسته به نسخه منتشر شده ممکن است متفاوت باشد): $tar -xvzf v1.0.0.tar.gz دیرکتوری / tmp اکنون باید پوشه velero-plugin-1.0.0 اکسترکت شده و همچنین تاربل که اخیراً دانلود کرده اید ، را شامل شود. سپس cd را در دایرکتوری velero-plugin-1.0.0 وارد میکنیم: $ cd velero-plugin-1.0.0 اکنون می توانیم کلیدهای دسترسی را برای

vpsgol Space و نشانه API برای استفاده به عنوان Kubernetes Secret ذخیره کنیم. ابتدا با استفاده از ویرایشگر مورد علاقه خود ، فایل examples/cloud-credentials را باز کنید. ⦁ $ nano examples/cloud-credential پرونده به شرح زیر خواهد بود: /tmp/velero-plugin-1.0.0/examples/cloud-credentials [default] aws_access_key_id= aws_secret_access_key= برای استفاده از کلیدهای

vpsgol Spaces ، "متغیرهای" و را ویرایش کنید. حتماً کاراکترهای < و > را حذف کنید. مرحله بعدی ویرایش فایل 01-velero-secret.patch.yaml است به گونه ای که شامل نشانه API

vpsgol شما باشد. پرونده را در ویرایشگر مورد علاقه خود باز کنید: ⦁ $ nano examples/01-velero-secret.patch.yaml ⦁ می بایست شبیه به این باشه: --- apiVersion: v1 kind: Secret stringData:

vpsgol_token: type: Opaque برای استفاده از ، کل مکان نگهدار را تغییر دهید. خط باید چیزی شبیه به

vpsgol_token: 18a0d730c0e0 باشد: باز هم ، حتماً کاراکترهای < و > را حذف کنید. مرحله 3 - نصب

سرور مجازی Velero نصب Velero شامل تعدادی از موارد Kubernetes است که همگی برای ایجاد ، برنامه ریزی و مدیریت پشتیبان گیری با هم کار می کنند. velero قابل اجرا که به تازگی دانلود کرده اید می تواند این موارد را برای شما تولید و نصب کند. دستور نصب velero مراحل آماده سازی اولیه را انجام می دهد تا برای خوشه شما پشتیبان تهیه شود. به طور خاص: ⦁ یک نام فضا velero ایجاد میکند. ⦁ حساب سرویس velero را اضافه میکند. ⦁ قوانین کنترل دسترسی مبتنی بر نقش (RBAC) را برای اعطای مجوز به حساب سرویس velero پیکربندی میکند. ⦁ تعریف منابع اختصاصی (CRD) را برای منابع خاص Velero نصب میکند: پشتیبان گیری ، برنامه ریزی، بازیابی ، پیکربندی. ⦁ پلاگین های Velero را برای مدیریت اسنپ شات و فضای ذخیره سازی ثبت میکند. دستور velero install را با چند گزینه تنظیمات غیر پیش فرض اجرا خواهیم کرد. به طور خاص ، شما نیاز به ویرایش هر یک از تنظیمات زیر در فراخوانی واقعی فرمان برای مطابقت با پیکربندی Spaces دارید: - backup velero-backup: مقدار velero-backups را تغییر دهید تا با نام فضای

vpsgol Space شما مطابقت داشته باشد. به عنوان مثال اگر فضای خود را " backup-bucket " نامیدید ، این گزینه به این شکل است: --bucket backup-bucket --backup-location-config s3Url=Error! Hyperlink reference not valid. href="https://vpsgol.net/">vpsgolspaces.com,region=nyc3 : URL و منطقه را تغییر دهید تا مطابق با تنظیمات فضای شما باشد. به طور خاص ، هر دو بخش nyc3 را ویرایش کنید تا با منطقه ای که فضای شما در آن میزبان است مطابقت داشته باشد. به عنوان مثال ، اگر فضای شما در منطقه fra1 میزبانی شود ، این خط به این صورت است: --backup-location-config s3Url=Error! Hyperlink reference not valid. href="https://vpsgol.net/">vpsgolspaces.com,region=fra1 region=fra1. شناسه های منطقه عبارتند از: nyc3 ، sfo2 ، sgp1 و fra1. پس از آماده شدن با تنظیمات مناسب مکان bucket و backup ، وقت آن است که Velero را نصب کنید. دستور زیر را اجرا کنید ، و در صورت وم مقادیر خود را جایگزین کنید: $velero install \ $ --provider velero.io/aws \ $ --backup velero backup \ $ --plugins velero/velero-plugin-for-aws:v1.0.0,

vpsgol/velero-plugin:v1.0.0 \ $ --backup-location-config s3Url=Error! Hyperlink reference not valid. href="https://vpsgol.net/">vpsgolspaces.com,region=nyc3 \ $ --use-volume-snapshots=false \ $ --secret-file=./examples/cloud-credentials باید خروجی زیر را مشاهده کنید: Output CustomResourceDefinition/backups.velero.io: attempting to create resource CustomResourceDefinition/backups.velero.io: created CustomResourceDefinition/backupstoragelocations.velero.io: attempting to create resource CustomResourceDefinition/backupstoragelocations.velero.io: created CustomResourceDefinition/deletebackuprequests.velero.io: attempting to create resource CustomResourceDefinition/deletebackuprequests.velero.io: created CustomResourceDefinition/downloadrequests.velero.io: attempting to create resource CustomResourceDefinition/downloadrequests.velero.io: created CustomResourceDefinition/podvolumebackups.velero.io: attempting to create resource CustomResourceDefinition/podvolumebackups.velero.io: created CustomResourceDefinition/podvolumerestores.velero.io: attempting to create resource CustomResourceDefinition/podvolumerestores.velero.io: created CustomResourceDefinition/resticrepositories.velero.io: attempting to create resource CustomResourceDefinition/resticrepositories.velero.io: created CustomResourceDefinition/restores.velero.io: attempting to create resource CustomResourceDefinition/restores.velero.io: created CustomResourceDefinition/schedules.velero.io: attempting to create resource CustomResourceDefinition/schedules.velero.io: created CustomResourceDefinition/serverstatusrequests.velero.io: attempting to create resource CustomResourceDefinition/serverstatusrequests.velero.io: created CustomResourceDefinition/volumesnapshotlocations.velero.io: attempting to create resource CustomResourceDefinition/volumesnapshotlocations.velero.io: created Waiting for resources to be ready in cluster. Namespace/velero: attempting to create resource Namespace/velero: created ClusterRoleBinding/velero: attempting to create resource ClusterRoleBinding/velero: created ServiceAccount/velero: attempting to create resource ServiceAccount/velero: created Secret/cloud-credentials: attempting to create resource Secret/cloud-credentials: created BackupStorageLocation/default: attempting to create resource BackupStorageLocation/default: created Deployment/velero: attempting to create resource Deployment/velero: created Velero is installed! ⛵ Use 'kubectl logs deployment/velero -n velero' to view the status. شما میتوانید به کارگیری ورودی ها با استفاده از دستور kubect از خروجی را مشاهده کنید. پس از آماده سازی به کارگیری، میتوانید به مرحله بعدی بروید که پیکربندی

سرور مجازی است. به کارگیری موفق شبیه زیر خواهد بود (با یک تفاوت ستون AGE): $ kubectl get deployment/velero --namespace velero Output NAME READY UP-TO-DATE AVAILABLE AGE velero 1/1 1 1 2m دراین نقطه مولفه

سرور مجازی Velero را در خوشه Kubernetes به عنوان یک صف آرایی نصب کرده اید. همچنین کلیدهای فضا را با Velero و با استفاده از Kubernetes Secret ثبت نموده اید. توجه: می توانید kubeconfig را که ابزار خط فرمان velero باید با فلگ --kubeconfig استفاده کند ، مشخص کنید. اگر از این فلگ استفاده نمی کنید ، velero متغیر محیط KUBECONFIG را بررسی کرده و سپس به پیش فرض kubectl یعنی (~/.kube/config) برمیگردد. مرحله 4 - پیکربندی اسنپ شات هنگامی که

سرور مجازی Velero را نصب کردیم ، گزینه --use-volume-snapshots = false بخشی از دستور بود. از آنجا که می خواهیم اسنپ شات از دستگاه های ذخیره سازی بلوک موجود در خوشه Kubernetes بگیریم ، باید به Velero بگوییم که از پلاگین صحیح برای ذخیره سازی بلوک

vpsgol استفاده کند. دستور زیر را اجرا کنید تا افزونه فعال شود و آن را به عنوان ارائه دهنده اسنپ شات پیش فرض ثبت کنید: $velero snapshot-location create default --provider

vpsgol.com/velero خروجی زیر را مشاهده خواهید کرد: Snapshot volume location "default" configured successfully. مرحله 5 - اضافه کردن یک نشانه API در مرحله قبل ، ذخیره بلوک و موارد دخیره را در

سرور مجازی Velero ایجاد کردیم. ما افزونه

vpsgol / velero: v1.0.0 را با

سرور مجازی ثبت کرده ایم و کلیدهای مخفی Spaces را در خوشه نصب کرده ایم. مرحله آخر افزودن اطلاعات سری cloud-credentials است که قبلاً برای استفاده از نشانه

vpsgol API ما ایجاد کرده ایم. بدون این نشانه ، افزونه Snapshot قادر به تأیید اعتبار با API

vpsgol نخواهد بود. ما می توانیم از دستور edit kubectl برای تغییر موضوع آرایش Velero با استفاده از نشانه API استفاده کنیم. با این حال ، ویرایش موضوعات پیچیده YAML با دست می تواند خسته کننده و پر خطا باشد. در عوض ، از دستور patch kubectl استفاده خواهیم کرد زیرا Kubernetes از patch موضوعات پشتیبانی می کند. بیایید نگاهی گذرا به مطالب فایل های پچ مورد نظر خود بیاندازیم. اولین فایل افزوده examples/01-velero-secret.patch.yaml است که قبلاً ویرایش کرده اید. این برای افزودن نشانه API شما به اطلاعات سری secrets/cloud-credentials طراحی شده است که از قبل حاوی کلیدهای Spaces شما بود. فایل را cat کنید: $cat examples/01-velero-secret.patch.yaml باید مانند این باشد (با نشان شما به جای نگهدارنده placeholder): examples/01-velero-secret.patch.yaml . . . --- apiVersion: v1 kind: Secret stringData:

vpsgol_token: type: Opaque حال بیایید به فایل پچ Deployment نگاه کنیم: $cat examples/02-velero-deployment.patch.yaml باید YAML زیر را ببینید: examples/02-velero-deployment.patch.yaml . . . --- apiVersion: v1 kind: Deployment spec: template: spec: containers: - args: - server command: - /velero env: - name:

vpsgol_TOKEN valueFrom: secretKeyRef: key:

vpsgol_token name: cloud-credentials name: velero این فایل نشان می دهد که ما در حال وصله کردن Deployment's Pod spec هستیم که به آن velero گفته می شود. از آنجا که این یک پچ است ، دیگر نیازی به مشخص کردن کل خصوصیات یا ابرداده های Kubernetes نیست. در این حالت ، پیاده سازی Velero قبلاً با استفاده از cloud-credentials پیکربندی شده است زیرا دستور نصب velero آن را برای ما ایجاد کرده است. بنابراین ، تمام آنچه که باید این پچ انجام دهد ثبت نام

vpsgol_token به عنوان متغیر محیط با Velero Pod است که قبلاً مستقر شده است. بیایید اولین پچ مخفی را با استفاده از دستور patch kubectl اعمال کنیم: $kubectl patch secret/cloud-credentials -p "$(cat examples/01-velero-secret.patch.yaml)" --namespace velero باید خروجی زیر را مشاهده کنید: secret/cloud-credentials patched سرانجام ما Deployment را پچ می کنیم. دستور زیر را اجرا کنید: $kubectl patch deployment/velero -p "$(cat examples/02-velero-deployment.patch.yaml") --namespace velero در صورت موفقیت آمیز بودن، خروجی زیر را مشاهده خواهید کرد: deployment.apps/velero patched بیایید تأیید کنیم که آرایش پچ شده با استفاده از kubectl get در فضایvelero کار می کند: $kubectl get deployment/velero --namespace velero باید خروجی زیر را مشاهده کنید: NAME READY UP-TO-DATE AVAILABLE AGE velero 1/1 1 1 12s در این مرحله Velero در حال اجرا و کاملاً پیکربندی شده است ، و آماده تهیه نسخه پشتیبان و بازیابی موارد خوشه ای Kubernetes و والیوم های پایدار در

vpsgol Spaces و Block Storage است. در بخش بعدی ، ما یک آزمایش سریع انجام خواهیم داد تا اطمینان حاصل کنیم که عملکرد نسخه پشتیبان و بازیابی همانطور که انتظار می رود ، کار می کند. مرحله ششم - تست تهیه نسخه پشتیبان و بازیابی فرآیند اکنون که Velero را با موفقیت نصب و پیکربندی کرده ایم ، می توانیم با استفاده از والیوم و سرویس مداوم ، آزمایش Nginx Deployment را ایجاد کنیم. پس از اجرای Deployment ، از پشتیبان گیری استفاده می کنیم و فرآیند را بازیابی می کنیم تا اطمینان حاصل شود که Velero پیکربندی شده و به درستی کار می کند. اطمینان حاصل کنید که هنوز در دایرکتوری /tmp/velero-plugin-1.0.0 کار می کنید. دایرکتوری examples حاوی نمونه Nginx به نام nginx-shembull.yaml است. این فایل را با استفاده از ویرایشگر مورد نظر خود باز کنید: $nano examples/nginx-example.yaml متن زیر را باید مشاهده کنید: Output . . . --- apiVersion: v1 kind: Namespace metadata: name: nginx-example labels: app: nginx --- kind: PersistentVolumeClaim apiVersion: v1 metadata: name: nginx-logs namespace: nginx-example labels: app: nginx spec: storageClassName: do-block-storage accessModes: - ReadWriteOnce resources: requests: storage: 5Gi --- apiVersion: apps/v1 kind: Deployment metadata: name: nginx-deploy namespace: nginx-example labels: app: nginx spec: replicas: 1 selector: matchLabels: app: nginx template: metadata: labels: app: nginx spec: volumes: - name: nginx-logs persistentVolumeClaim: claimName: nginx-logs containers: - image: nginx:stable name: nginx ports: - containerPort: 80 volumeMounts: - mountPath: "/var/log/nginx" name: nginx-logs readOnly: false --- apiVersion: v1 kind: Service metadata: labels: app: nginx name: nginx-svc namespace: nginx-example spec: ports: - port: 80 targetPort: 80 selector: app: nginx type: LoadBalancer در این فایل فضاهایی برای موارد زیر مشاهده می کنیم: ⦁ یک نام فضای Nginx به نام nginx-example ⦁ استقرار Nginx متشکل از یک نمونه کپی شده از تصویر کانتینر nginx:stable ⦁ ادعای والیوم مداوم 5Gi (به نام log-nginx) با استفاده از do-block-storage در StorageClass ⦁ یک سرویس LoadBalancer که پورت 80 را در معرض دید قرار می دهد با استفاده از kubectl apply موارد را ایجاد کنید: $kubectl apply -f examples/nginx-example.yaml باید خروجی زیر را مشاهده کنید: Output namespace/nginx-example created persistentvolumeclaim/nginx-logs created deployment.apps/nginx-deploy created service/nginx-svc created بررسی کنید که استقرار موفق باشد: $kubectl get deployments --namespace=nginx-example باید برای سرویس my-nginx هم CLUSTER-IP داخلی و هم EXTERNAL-IP را مشاهده کنید: Output NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE nginx-svc LoadBalancer 10.245.147.61 159.203.48.191 80:30232/TCP 3m1s به EXTERNAL-IP توجه داشته باشید و آن را به سمت استفاده از مرورگرتان هدایت کنید. هنگامی که در دسترس قرار گرفت به 1 رسید ، IP خارجی تعادل بار Nginx را با استفاده از kubectl دریافت کنید: شما باید صفحه خوشامدگویی NGINX زیر را ببینید: این نشان می دهد که Nginx Deployme شما و خدمات به روز و در حال اجرا هستند. قبل از شبیه سازی سناریوی فاجعه ما ، ابتدا ورود به دسترسی Nginx (که در یک حجم مداوم متصل به Nginx Pod ذخیره شده) را بررسی کنید: $kubectl get pods --namespace nginx-example Output NAME READY STATUS RESTARTS AGE nginx-deploy-694c85cdc8-vknsk 1/1 Running 0 4m14s اکنون ، داخل کانتینر در حال اجرا Nginx وارد شوید تا به یک پوسته در داخل آن برسید: $kubectl exec -it nginx-deploy-694c85cdc8-vknsk --namespace nginx-example -- /bin/bash به محض ورود به کانتینر Nginx بروید ، ورودهای دسترسی Nginx را cat کنید: # cat /var/log/nginx/access.log باید برخی از ورودی های Nginx را مشاهده کنید: Output 10.244.0.119 - - [03/Jan/2020:04:43:04 +0000] "GET / HTTP/1.1" 200 612 "-" "Mozilla/5.0 (X11; Linux x86_64; rv:72.0) Gecko/20100101 Firefox/72.0" "-" 10.244.0.119 - - [03/Jan/2020:04:43:04 +0000] "GET /favicon.ico HTTP/1.1" 404 153 "-" "Mozilla/5.0 (X11; Linux x86_64; rv:72.0) Gecko/20100101 Firefox/72.0" "-" این موارد را یادداشت کنید (به ویژه زمانها) ، زیرا ما از آنها برای تأیید موفقیت در روش بازیابی استفاده خواهیم کرد. از pod خارج شوید: $ exit اکنون می توانیم از روش پشتیبان گیری برای کپی کردن همه موارد nginx Kubernetes در Spaces استفاده کنیم و یک اسنپ شات از والیوم مداوم که هنگام استقرار Nginx ایجاد کردیم را بگیرید. $ velero backup create nginx-backup --selector app=nginx برنامه --selector = nginx به

سرور مجازی Velero دستور می دهد تا فقط از موضوعات Kubernetes با انتخابگر لیبل app=nginx پشتیبان تهیه کند. باید خروجی زیر را مشاهده کنید: Output Backup request "nginx-backup" submitted successfully. Run `velero backup describe nginx-backup` or `velero backup logs nginx-backup` for more details. اجرای velero backup describe nginx-backup --details باید خروجی زیر را بعد از یک تأخیر کوتاه ارائه دهد: Output Name: nginx-backup Namespace: velero Labels: velero.io/backup=nginx-backup velero.io/pv=pvc-6b7f63d7-752b-4537-9bb0-003bed9129ca velero.io/storage-location=default Annotations: Phase: Completed Namespaces: Included: * Excluded: Resources: Included: * Excluded: Cluster-scoped: auto Label selector: app=nginx Storage Location: default Snapshot PVs: auto TTL: 720h0m0s Hooks: Backup Format Version: 1 Started: 2020-01-02 23:45:30 -0500 EST Completed: 2020-01-02 23:45:34 -0500 EST Expiration: 2020-02-01 23:45:30 -0500 EST Resource List: apps/v1/Deployment: - nginx-example/nginx-deploy apps/v1/ReplicaSet: - nginx-example/nginx-deploy-694c85cdc8 v1/Endpoints: - nginx-example/nginx-svc v1/Namespace: - nginx-example v1/PersistentVolume: - pvc-6b7f63d7-752b-4537-9bb0-003bed9129ca v1/PersistentVolumeClaim: - nginx-example/nginx-logs v1/Pod: - nginx-example/nginx-deploy-694c85cdc8-vknsk v1/Service: - nginx-example/nginx-svc Persistent Volumes: pvc-6b7f63d7-752b-4537-9bb0-003bed9129ca: Snapshot ID: dfe866cc-2de3-11ea-9ec0-0a58ac14e075 Type: ext4 Availability Zone: IOPS: <N/A> این خروجی نشان می دهد که پشتیبان گیری nginx-backup با موفقیت انجام شد. لیست منابع هر یک از موضوعات Kubernetes را که در نسخه پشتیبان تهیه شده است نشان می دهد. بخش آخر نشان می دهد که از PersistentVolume نیز با استفاده از اسنپ شات فایل سیستم نسخه پشتیبان تهیه شده است. برای تأیید از داخل کنترل پنل

vpsgol Cloud ، به فضای حاوی فایل های پشتیبان Kubernetes خود بروید. شما باید یک دایرکتوری جدید با نام nginx-backup را ببینید که حاوی فایل های پشتیبان Velero است. با استفاده از نوار ناوبری در سمت چپ ، به قسمت تصاویر و سپس اسنپ شات ها بروید. در اسنپ شات ها ، به Volume بروید. شما باید Snapshot مربوط به PVC ذکر شده در خروجی فوق را مشاهده کنید. اکنون می توانیم فرآیند بازیابی را آزمایش کنیم. بیایید ابتدا نام فضای nginx-example را حذف کنیم. با این کار همه چیز در نام فضا، از جمله Load Balancer و والیوم مداوم حذف می شود: $kubectl delete namespace nginx-example تأیید کنید که دیگر نمی توانید به Nginx در انتهای Load Balancer دسترسی پیدا کنید ، و این که به کارگیری برنامه nginx-example دیگر در حال اجرا نیست: $kubectl get deployments --namespace=nginx-example Output No resources found in nginx-example namespace. اکنون می توانیم دوباره با استفاده از مشتری velero ، فرآیند بازیابی را انجام دهیم: $ velero restore create --from-backup nginx-backup در اینجا ما از create برای ایجاد مورد Velero Restore از موضوع nginx-backup استفاده می کنیم. باید خروجی زیر را مشاهده کنید: Output $Restore request "nginx-backup-20200102235032" submitted successfully. $Run `velero restore describe nginx-backup-20200102235032` or `velero restore logs nginx-backup-20200102235032` for more details. وضعیت اجرای بازیابی شده را بررسی کنید: $kubectl get deployments --namespace=nginx-example Output NAME READY UP-TO-DATE AVAILABLE AGE nginx-deploy 1/1 1 1 58s ایجاد والیوم مداوم را بررسی کنید $kubectl get pvc --namespace=nginx-example Output NAME STATUS VOLUME CAPACITY ACCESS MODES STORAGECLASS AGE nginx-logs Bound pvc-6b7f63d7-752b-4537-9bb0-003bed9129ca 5Gi RWO do-block-storage 75s بازیابی همچنین LoadBalancer ایجاد کرد. گاهی اوقات سرویس با یک آدرس IP جدید ایجاد می شود. باید مجدداً آدرس EXTERNAL-IP را پیدا کنید: $kubectl get services --namespace nginx-example Output NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE nginx-svc LoadBalancer 10.245.15.83 159.203.48.191 80:31217/TCP 97s برای تأیید به روز رسانی و اجرای Nginx ، یک بار دیگر به IP خارجی سرویس Nginx بروید. در آخر ، ورودهای مربوط به والیوم پایدار را بازبینی کنید تا تأیید کنید که سابقه ورود پس از بازیابی ، حفظ شده است. برای این کار ، یک بار دیگر نام Pod را با استفاده از kubectl get دریافت کنید: $kubectl get pods --namespace nginx-example Output NAME READY STATUS RESTARTS AGE nginx-deploy-694c85cdc8-vknsk 1/1 Running 0 2m20s سپس به آن exec کنید: $kubectl exec -it nginx-deploy-694c85cdc8-vknsk --namespace nginx-example -- /bin/bash به محض ورود به کانتینر Nginx، ورودهای دسترسی به Nginx را cat کنید: $cat /var/log/nginx/access.log Output 10.244.0.119 - - [03/Jan/2020:04:43:04 +0000] "GET / HTTP/1.1" 200 612 "-" "Mozilla/5.0 (X11; Linux x86_64; rv:72.0) Gecko/20100101 Firefox/72.0" "-" 10.244.0.119 - - [03/Jan/2020:04:43:04 +0000] "GET /favicon.ico HTTP/1.1" 404 153 "-" "Mozilla/5.0 (X11; Linux x86_64; rv:72.0) Gecko/20100101 Firefox/72.0" "-" شما باید همان اقدامات دسترسی قبل از تهیه نسخه پشتیبان را ببینید (بازه های زمانی را یادداشت کنید) که تأیید میکند که بازیابی والیوم پایدار موفقیت آمیز بوده است. توجه داشته باشید پس از انجام بازیابی ، اگر از صفحه فرود Nginx بازدید کنید ، ممکن است تلاش های بیشتری نیاز باشد. در این مرحله ، ما با موفقیت از موضوعات Kubernetes خود در فضاهای

vpsgol و والیومهای پایدار خود با استفاده از اسنپ شات های بلوک ذخیره سازی پشتیبان تهیه کرده ایم. ما یک سناریوی فاجعه را شبیه سازی کردیم و سرویس را به برنامه تست Nginx بازیابی کردیم. نتیجه در این راهنما ابزار پشتیبان گیری Velero Kubernetes را روی یک خوشه مبتنی بر

vpsgol Kubernetes نصب و پیکربندی کردیم. ما این ابزار را برای تهیه نسخه پشتیبان از موضوعات Kubernetes در

vpsgol Spaces و پشتیبان گیری از والیوم های مداوم با استفاده از اسنپ شات های والیوم ذخیره سازی بلوک پیکربندی کرده ایم. از Velero همچنین می توان برای برنامه ریزی پشتیبان گیری منظم از خوشه Kubernetes برای بازیابی در برابر مشکلات استفاده کرد. برای این کار می توانید از دستور velero schedule استفاده کنید. Velero همچنین می تواند برای انتقال منابع از یک خوشه به گروه دیگر استفاده شود. برای کسب اطلاعات بیشتر در مورد

vpsgol Spaces ، از مطالب رسمی Spaces کمک بگیرید. برای کسب اطلاعات بیشتر در مورد والیوم های ذخیره سازی بلوک ، با مستندات والیوم ذخیره سازی بلوک م کنید. این آموزش بر اساس README موجود در repo GitHub-plugin-plugin-digital-stackPointCloud


مقدمه

سیستم های مدیریت دیتابیس های منطقی یک مؤلفه اصلی بسیاری از وب سایت ها و برنامه ها است. آنها روشی ساختاری برای ذخیره ، سازماندهی و دسترسی به اطلاعات را ارائه می دهند. PostgreSQL یا Postgres یک سیستم مدیریت دیتابیس منطقی است که اجرای زبان جستجوی SQL را فراهم می کند. و یک انتخاب متداول برای بسیاری از پروژه های کوچک و بزرگ است و این مزیت را دارد که مطابق با استانداردها می باشد و دارای بسیاری از ویژگی های پیشرفته مانند تعاملات مطمئن و همزمانی بدون قفل خواندن است. در این راهنما؛ Postgres را بر روی

سرور مجازی CentOS 7 نصب خواهید کرد و برخی از روش های اصلی برای استفاده از آن را فرا می گیرید. پیش نیازها برای دنبال کردن این آموزش ، به موارد زیر نیاز دارید: یک

سرور مجازی CentOS 7 که با پیروی از راهنمای راه اندازی

سرور مجازی اولیه ما با CentOS 7 و مراحل توصیه شده بعدی برای سرورهای جدید CentOS 7 ما ، شامل کاربر غیر ریشه با امتیازات sudo و فایروال تنظیم شده با firewalld پیکربندی شده باشد. برای راه اندازی firewalld ، بخش پیکربندی یک فایروال اساسی در آموزش ستاپ توصیه شده برای سرورهای جدید CentOS 7 را دنبال کنید. اگر دیتابیس ها بسیار فعال باشند و دارای نشان زمانی در سوابق داخلی باشند ، می توانند به ویژه در برابر تغییرات زمان سیستم آسیب پذیر باشند. برای جلوگیری از برخی رفتارهای متناقض که در اثر ساعتهای خارج از همگام سازی ناشی می شود ، حتماً با دنبال کردن بخش همگام سازی پروتکل زمانی شبکه و محدوده های زمانی پیکربندی در آموزش مراحل اضافی برای

سرور مجازیCentOS 7 جدید، همگام سازی پروتکل زمانی شبکه را (NTP) تنظیم کنید. . مرحله 1 - نصب PostgreSQL Postgres را می توان با استفاده از منابع پیش فرض CentOS نصب کرد. اما در مورد نوشتن این آموزش ، نسخه ای که در منبع پایه CentOS 7 موجود است منسوخ شده است. بنابراین ، در این آموزش از منبع رسمی Postgres استفاده خواهد شد. قبل از اقدام به ایجاد منبع جدید ، جستجوی بسته های postgresql را از منبع CentOS-Base حذف کنید. در غیر این صورت ، وابستگی ها ممکن است نسبت به postgresql تهیه شده توسط منبع پایه برطرف شود. فایل پیکربندی منبع را با استفاده از ویرایشگر متن مورد نظر خود باز کنید. در این آموزش از vim استفاده می شود: $sudo vi /etc/yum.repos.d/CentOS-Base.repo بخش های [base] و [update] را پیدا کنید ، با فشار دادن i وارد حالت insert شوید و خط exclud = postgresql * را در هر دو بخش وارد کنید. در نتیجه ، فایل شما به شرح زیر خواهد بود ، با خطوط جدید برجسته شده است: /etc/yum.repos.d/CentOS-Base.repo . [base] name=CentOS-$releasever - Base mirrorlist=http://mirrorlist.centos.org/?release=$releasever&arch=$basearch&repo=os&infra=$infra #baseurl=http://mirror.centos.org/centos/$releasever/os/$basearch/ gpgcheck=1 gpgkey=file:///etc/pki/rpm-gpg/RPM-GPG-KEY-CentOS-7 exclude=postgresql* #released updates [updates] name=CentOS-$releasever - Updates mirrorlist=http://mirrorlist.centos.org/?release=$releasever&arch=$basearch&repo=updates&infra=$infra #baseurl=http://mirror.centos.org/centos/$releasever/updates/$basearch/ gpgcheck=1 gpgkey=file:///etc/pki/rpm-gpg/RPM-GPG-KEY-CentOS-7 exclude=postgresql* . پس از اتمام ، ESC را فشار دهید تا از حالت درج خارج شوید، سپس: wq و ENTER را برای ذخیره و خروج از فایل بزنید. برای کسب اطلاعات بیشتر در مورد ویرایشگر متن vi و جانشین آن vim ، نصب و استفاده از ویرایشگر متن Vim را در آموزش Cloud Server ببینید. اکنون با استفاده از منبع رسمی PostgreSQL برای CentOS ، یک بسته تنظیمات منبع را نصب کنید: $sudo yum install https://download.postgresql.org/pub/repos/yum/reporpms/EL-7-x86_64/pgdg-redhat-repo-latest.noarch.rpm هنگامی که اعلان به شما داده شد ، نصب را با y تأیید کنید. منبع PostgreSQL شامل اطلاعات مربوط به همه نسخه های موجود PostgreSQL است. با استفاده از دستور زیر می توانید تمام بسته ها و نسخه های موجود را مشاهده کنید: $yum list postgresql* نسخه مورد نظر PostgreSQL را انتخاب و نصب کنید. در این راهنما از نسخه PostgreSQL 11 استفاده خواهید کرد. برای نصب

سرور مجازی PostgreSQL از دستور زیر استفاده کنید: $sudo yum install postgresql11-server در طی مراحل نصب از شما خواسته می شود تا کلید GPG را با اعلانی مانند موارد زیر وارد کنید: . Importing GPG key 0x442DF0F8: Userid : "PostgreSQL RPM Building Project <pgsqlrpms-hackers@pgfoundry.org>" Fingerprint: 68c9 e2b9 1a37 d136 fe74 d176 1f16 d2e1 442d f0f8 Package : pgdg-redhat-repo-42.0-5.noarch (installed) From : /etc/pki/rpm-gpg/RPM-GPG-KEY-PGDG Is this ok [y/N]: آن را با y تأیید کنید تا نصب کامل شود. اکنون که نرم افزار نصب شده است ، شما برای تهیه خوشه دیتابیس جدید برای PostgreSQL مراحل ابتدایی را انجام خواهید داد. مرحله 2 - ایجاد یک خوشه دیتابیس جدید PostgreSQL شما باید قبل از استفاده از دیتابیس Postgres ، یک دیتابیس PostgreSQL جدید ایجاد کنید. یک خوشه دیتابیس مجموعه ای از بانکهای داده است که توسط یک

سرور مجازی واحد مدیریت می شود. ایجاد یک خوشه دیتابیس شامل ایجاد دایرکتوری هایی است که در آن داده های دیتابیس قرار می گیرد ، جداول کاتولوگ اشتراکی و بانکهای اطلاعاتی template1 و postgres. را ایجاد میکنند. برای ایجاد یک دیتابیس جدید ، دیتابیس template1 لازم است. هر چیزی که در آن ذخیره شده باشد ، هنگام ایجاد در یک دیتابیس جدید قرار می گیرد. دیتابیس postgres یک دیتابیس پیش فرض است که برای استفاده کاربران ، برنامه های کاربردی و برنامه های شخص ثالث طراحی شده است. یک خوشه جدید برای دیتابیس PostgreSQL با initdb ایجاد کنید: $ sudo /usr/pgsql-11/bin/postgresql-11-setup initdb خروجی زیر را مشاهده خواهید کرد: Initializing database . OK اکنون PostgreSQL را با استفاده از systemctl شروع و فعال کنید: $ sudo systemctl start postgresql-11 $ sudo systemctl enable postgresql-11 خروجی زیر را می دهد Created symlink from /etc/systemd/system/multi-user.target.wants/postgresql-11.service to /usr/lib/systemd/system/postgresql-11.service. اکنون که PostgreSQL به روز شده و در حال اجرا است ، شما می توانید با استفاده از نقش ها ، یاد بگیرید که چگونه Postgres کار می کند و تفاوت آن با سیستم های مدیریت دیتابیس مشابه شما که ممکن است در گذشته استفاده کرده باشید چیست. مرحله 3 - استفاده از نقشها و بانکهای اطلاعاتی PostgreSQL به طور پیش فرض ، Postgres از مفهومی به نام نقش ها برای تأیید اعتبار و مجوز استفاده می کند. اینها از بعضی جهات شبیه به حسابهای معمولی یونیکس هستند اما Postgres بین کاربران و گروه ها فرق نمی گذارد و در عوض نقش انعطاف پذیر تری را ترجیح می دهد. پس از نصب ، Postgres برای استفاده احراز هویت شناسایی تنظیم میشود ، به این معنی که نقش های Postgres با یک حساب کاربری سیستم Unix / Linux مرتبط می شود. اگر نقشی در Postgres وجود داشته باشد ، یک نام کاربری یونیکس / لینوکس با همین نام قادر به ورود به عنوان آن نقش است. روش نصب یک حساب کاربری به نام postgres ایجاد کرده است که با نقش پیش فرض Postgres همراه است. برای استفاده از Postgres می توانید وارد آن حساب شوید. چند روش برای استفاده از این حساب برای دسترسی به Postgres وجود دارد. انتقال به حساب Postgres با تایپ کردن دستور زیر به حساب Postgres در

سرور مجازی خود سوییچ کنید: $ sudo -i -u postgres اکنون می توانید با تایپ این دستور فوراً به Postgres دسترسی پیدا کنید: $ psql با این کار شما وارد اعلان PostgreSQL می شوید و از اینجا می توانید بلافاصله با سیستم مدیریت دیتابیس ارتباط برقرار کنید. با تایپ کردن این دستور از اعلان PostgreSQL خارج شوید: Postgres=# \q این شما را به خط فرمان سریع postgres Linux بازمیگرداند. اکنون با دستور زیر به حساب sudo اصلی خود برگردید: $ exit دسترسی به یک Postgres سریع بدون تعویض حساب همچنین می توانید دستور مورد نظر خود را با حساب postgres به طور مستقیم با sudo اجرا کنید. به عنوان مثال ، در نمونه آخر ، به شما دستور داده شد که ابتدا با سوییچ کردن به کاربر Postgres و سپس اجرای psql برای باز کردن اعلان Postgres ، سریعاً بهPostgres برسید. شما می توانید این کار را در یک مرحله با اجرای فرمان واحد psql به عنوان کاربر postgres با sudo انجام دهید ، مانند این: $ sudo -u postgres psql با این کار بدون پوسته bash مستقیماً وارد Postgres خواهید شد. دوباره می توانید با تایپ کردن این دستور از بخش Postgres تعاملی خارج شوید: Postgres=# \q در این مرحله، از حساب Postgres برای رسیدن به اعلان psql استفاده کردید. اما بسیاری از موارد استفاده بیشتر به یک نقش Postgres نیاز دارند. برای یادگیری نحوه پیکربندی نقشهای جدید به خواندن متن ادامه دهید. مرحله 4 - ایجاد نقش جدید در حال حاضر ، شما فقط نقش postgres ها را در دیتابیس پیکربندی کرده اید. می توانید با استفاده از دستور Createrole نقش های جدیدی را از خط فرمان ایجاد کنید. فلگ --interactive نام نقش جدید را به شما اعلان میکند و همچنین سؤال میکند که آیا مجوزهای فوق کاربری باید داته باشد یا خیر. اگر به عنوان حساب postgres وارد شوید ، می توانید با تایپ کردن این دستور کاربر جدیدی ایجاد کنید: postgres@server:$ createuser --interactive در عوض ، اگر ترجیح می دهید بدون تغییر حساب عادی خود از sudo برای هر دستور استفاده کنید ، تایپ کنید: $ sudo -u postgres createuser --interactive این متن با انتخاب های مختلفی شما را باخبر می کند و بر اساس پاسخ های شما ، دستورات درست Postgres را برای ایجاد یک کاربر برای مشخصات شما اجرا می کند. برای این آموزش ، یک کاربر sammy ایجاد کنید و به آن امتیازات فوق کاربر بدهید: Enter name of role to add: sammy Shall the new role be a superuser? (y/n) y با عبور برخی از فلگ های اضافی می توانید کنترل بیشتری به دست آورید. گزینه ها را با مراجعه به صفحه man بررسی کنید: $ man createuser نصب شما در Postgres اکنون کاربر جدیدی دارد ، اما شما هنوز هیچ دیتابیسی اضافه نکرده اید. در بخش بعدی این روند توضیح داده شده است. مرحله 5 - ایجاد یک دیتابیس جدید فرض دیگری که سیستم تأیید اعتبار Postgres بطور پیش فرض انجام می دهد این است که برای هر نقشی که برای ورود به سیستم استفاده می شود ، آن نقش یک دیتابیس با همان نام دارد که می تواند به آن دسترسی داشته باشد. این بدان معنی است که ، اگر کاربری که در آخرین بخش ایجاد کرده اید ، sammy خوانده شود ، این نقش سعی خواهد کرد به یک دیتابیس وصل شود که به طور پیش فرض نیز sammy نامیده می شود. می توانید با دستور createdb دیتابیس مناسب ایجاد کنید. اگر به عنوان حساب postgres وارد میشوید، مطمئناً شما می توانید چیزی شبیه این تایپ خواهید کرد: postgres@server:$ createdb sammy در عوض ، اگر ترجیح می دهید بدون تغییر از حساب عادی خود ، از sudo برای هر فرمان استفاده کنید ، تایپ کنید: $ sudo -u postgres createdb sammy این انعطاف پذیری در صورت نیاز چندین مسیر برای ایجاد دیتابیس جدید فراهم می کند. اکنون که یک دیتابیس جدید ایجاد کرده اید ، با نقش جدید خود وارد آن خواهید شد. مرحله ششم – باز کردن اعلان Postgres با نقش جدید برای ورود به تأیید هویت مبتنی بر ident ، به یک کاربر لینوکس با همان نام و نقش دیتابیس Postgres خود نیاز دارید. اگر یک کاربر سازگار با لینوکس در دسترس ندارید ، می توانید یکی از آنها را با دستور adduser ایجاد کنید. شما باید این کار را از حساب غیر ریشه خود با امتیازات sudo انجام دهید (به این معنی که به عنوان کاربر postgres وارد نشده اید): $ sudo adduser sammy پس از در دسترس بودن این حساب جدید ، می توانید با تایپ کردن به دیتابیس سوییچ کنید و وصل شوید: $ sudo -i -u sammy $ psql یا می توانید این کار را بصورت درون خطی انجام دهید: $ sudo -u sammy psql این دستور شما را به طور خودکار وارد می کند. اگر می خواهید کاربر شما به یک دیتابیس دیگر متصل شود ، می توانید با مشخص کردن دیتابیس مانند دستور زیر این کار را انجام دهید: $ psql -d postgres پس از ورود به سیستم ، می توانید اطلاعات اتصال فعلی خود را با تایپ کردن دستور زیر بررسی کنید: Sammy=# \ conninfo خروجی زیر را نشان خواهد داد: You are connected to database "sammy" as user "sammy" via socket in "/var/run/postgresql" at port "5432". این امر در صورت اتصال به دیتابیس های غیر پیش فرض یا با کاربران غیر پیش فرض مفید است. با اتصال به دیتابیس خود ، اکنون می توانید ایجاد و حذف جداول را امتحان کنید. مرحله 7 - ایجاد و حذف جداول اکنون که می دانید چگونه به سیستم دیتابیس PostgreSQL وصل شوید ، می توانید برخی از وظایف اساسی مدیریت Postgres را یاد بگیرید. ابتدا یک جدول برای ذخیره برخی داده ها ایجاد کنید. به عنوان نمونه ، جدولی را تهیه خواهید کرد که برخی از تجهیزات زمین بازی را شرح می دهد. ترکیب اصلی این دستور به شرح زیر است: CREATE TABLE table_name ( column_name1 col_type (field_length) column_constraints, column_name2 col_type (field_length), column_name3 col_type (field_length) ); این دستورات به جدول اسمی می دهند و سپس ستون ها و همچنین نوع ستون و حداکثر طول داده های میدان را مشخص می کنند. همچنین می توانید محدودیت های جدول را برای هر ستون به صورت اختیاری اضافه کنید. می توانید اطلاعات بیشتری در مورد نحوه ایجاد ، حذف و مدیریت جداول در PostgreSQL در یک آموزش Cloud Server دریافت کنید. برای اهداف توضیحی ، یک جدول ساده مانند این ایجاد کنید: CREATE TABLE playground ( equip_id serial PRIMARY KEY, type varchar (50) NOT NULL, color varchar (25) NOT NULL, location varchar(25) check (location in ('north', 'south', 'west', 'east', 'northeast', 'southeast', 'southwest', 'northwest')), install_date date ); این دستورات یک جدول ایجاد می کند که تجهیزات زمین بازی را ذخیره می کند. این کار با یک شناسه تجهیزات شروع می شود که از نوع serial است. این نوع داده یک عدد صحیح است که به طور خودکار رو به افزایش است. شما همچنین به این ستون محدودیت primary keyرا داده اید ، به این معنی که مقادیر باید منحصر به فرد باشند و خنثی نباشند. برای دو ستون (equip_id و install_date) ، دستورات طول فیلد را مشخص نمی کنند. دلیل این امر این است که برخی از انواع ستونها به طول مشخصی نیاز ندارند زیرا طول دلالت بر نوع است. دو دستور بعدی به ترتیب ستونهایی را برای نوع و رنگ تجهیزات ایجاد می کنند که هر یک از آنها نمی تواند خالی باشد. دستور بعد از اینها یک ستون مکان و یک محدودیت ایجاد می کند که نیاز دارد این مقدار یکی از هشت مقدار ممکن باشد. دستور آخر یک ستون تاریخ ایجاد می کند که تاریخ نصب تجهیزات را ثبت می کند. می توانید جدول جدید خود را با تایپ کردن دستور زیر مشاهده کنید: Sammy=# \d خروجی زیر را نشان می دهد: List of relations Schema | Name | Type | Owner --------+-------------------------+----------+------- public | playground | table | sammy public | playground_equip_id_seq | sequence | sammy (2 rows) جدول زمین بازی شما اینجاست ، اما چیزی به نام playground_equip_id_seq نیز وجود دارد که از نوع sequence است. این نمایشی از نوع serial است که شما به ستون equip_id خود داده اید. این شماره بعدی را در ترتیب دنبال می کند و به طور خودکار برای ستون های این نوع ایجاد می شود. اگر می خواهید فقط جدول بدون ترتیب را ببینید ، می توانید تایپ کنید: Sammy=# \dt به خروجی زیر منجر میشود: List of relations Schema | Name | Type | Owner --------+------------+-------+------- public | playground | table | sammy (1 row) در این مرحله یک جدول نمونه ایجاد کرده اید. در مرحله بعد ، سعی در اضافه کردن ، درخواست و حذف مطالب در آن جدول خواهید کرد. مرحله 8 - اضافه کردن ، جستجو و حذف داده ها در یک جدول اکنون که جدول دارید ، می توانید برخی از داده ها را در آن وارد کنید. به عنوان نمونه ، با فراخوانی جدول موردنظر برای افزودن ، نامگذاری ستونها ، و سپس تهیه داده برای هر ستون ، یک slide و swing را اضافه کنید: Sammy=# INSERT INTO playground (type, color, location, install_date) VALUES ('slide', 'blue', 'south', '2017-04-28'); Sammy=# INSERT INTO playground (type, color, location, install_date) VALUES ('swing', 'yellow', 'northwest', '2018-08-16'); شما باید هنگام وارد کردن داده ها مراقب باشید تا از معدود مشکلات معمول جلوگیری شود. برای یک ، نام ستون ها را در علامت نق قول نگذارید ، اما مقادیر ستون که وارد می کنید به نقل قول نیاز دارند. نکته دیگری که باید در نظر داشته باشید این است که برای ستون equip_id مقداری وارد نمی کنید. به این دلیل است که هر زمان که یک ردیف جدید در جدول ایجاد شود ، به طور خودکار شکل میگیرد. با تایپ کردن دستور زیر اطلاعاتی که اضافه کرده اید بازیابی کنید: Sammy=# SELECT * FROM playground; خروجی زیر را مشاهده خواهید کرد: equip_id | type | color | location | install_date ----------+-------+--------+-----------+-------------- 1 | slide | blue | south | 2017-04-28 2 | swing | yellow | northwest | 2018-08-16 (2 rows) در اینجا ، می بینید که equip_id شما با موفقیت پر شده است و تمام داده های دیگر شما به درستی سازماندهی شده اند. اگر slide روی زمین بازی خراب شد و مجبور شدید آن را حذف کنید ، می توانید با تایپ کردن دستور زیر سطر را از جدول خود حذف نمایید: Sammy=# DELETE FROM playground WHERE type = 'slide'; جدول را دوباره فراخوانی کنید: Sammy=# SELECT * FROM playground; موارد زیر را مشاهده خواهید کرد: equip_id | type | color | location | install_date ----------+-------+--------+-----------+-------------- 2 | swing | yellow | northwest | 2018-08-16 (1 row) توجه کنید که اسلاید شما دیگر جزئی از جدول نیست. اکنون که ورودی های خود را در جدول خود اضافه کرده اید و حذف کرده اید ، می توانید ستون ها را اضافه و حذف کنید. مرحله 9 - اضافه کردن و حذف ستون ها از یک جدول پس از ایجاد جدول ، می توانید آن را تغییر دهید تا ستون ها اضافه یا حذف شوند. برای نمایش آخرین بازدید نگهداری برای هر قطعه تجهیزات ، یک ستون اضافه کنید: Sammy=# ALTER TABLE playground ADD last_maint date; اگر اطلاعات جدول خود را دوباره مشاهده کنید ، می بینید که ستون جدید اضافه شده است (اما هیچ داده ای وارد نشده است(: Sammy=# SELECT * FROM playground; خروجی زیر را مشاهده خواهید کرد: equip_id | type | color | location | install_date | last_maint ----------+-------+--------+-----------+--------------+------------ 2 | swing | yellow | northwest | 2018-08-16 | (1 row) حذف ستون به همین سادگی است. اگر متوجه شدید که خدمه کاری شما از یک ابزار جداگانه برای پیگیری تاریخچه نگهداری استفاده می کنند ، می توانید ستون را با تایپ کردن این دستور حذف کنید: Sammy=# ALTER TABLE playground DROP last_maint; این ستون last_maint و مقادیر موجود در آن را حذف می کند ، اما تمام داده های دیگر را دست نخورده می گذارد. با افزودن و حذف ستونها، می توانید داده های موجود را در مرحله آخر به روز کنید. مرحله 10 - به روزرسانی داده ها در یک جدول تاکنون یاد گرفته اید که چگونه می توانید سوابق را به یک جدول اضافه کنید و چگونه آنها را حذف کنید ، اما این آموزش هنوز نحوه تغییر ورودی های موجود را پوشش نداده است. می توانید مقادیر ورودی موجود را با فراخوانی رکورد مورد نظر خود به روز کنید و ستون را روی مقدار مورد نظر خود تنظیم کنید. می توانید از سوابق swing (با هر swing در جدول شما منطبق میشود) استفاده کنید و رنگ آن را به رنگ قرمز تغییر دهید: Sammy=# UPDATE playground SET color = 'red' WHERE type = 'swing'; با فراخوانی داده ها دوباره می توانید تأیید کنید که این عملیات با موفقیت انجام شد: Sammy=# SELECT * FROM playground; خروجی زیر را مشاهده خواهید کرد: equip_id | type | color | location | install_date ----------+-------+-------+-----------+-------------- 2 | swing | red | northwest | 2010-08-16 (1 row) همانطور که مشاهده می کنید ، اکنون اسلایدها به عنوان قرمز ثبت شده است. نتیجه اکنون تنظیم PostgreSQL در

سرور مجازی CentOS 7 خود را انجام داده اید. با این حال ، هنوز چیزهای بیشتری برای یادگیری Postgres وجود دارد. در اینجا چند راهنمای دیگر که نحوه استفاده از Postgres را پوشش می دهند آورده شده است: مقایسه سیستم های مدیریت دیتابیس منطقی با نحوه ایجاد و مدیریت جداول با Postgres آشنا شوید در مدیریت نقش ها و مجوزها حرفه ای تر شوید فراخوانی مهارت در Postgres با Selec


مقدمه

با حرکت ابزارهای گسترش دهنده به سمت cloud ، پذیرش پلتفرم cloud IDE (محیط پیشرفت در هم تنیده) در حال رشد است. Cloud IDE از هر نوع دستگاه مدرن از طریق مرورگرهای وب قابل دسترسی است و برای سناریوهای همکاری در زمان واقعی مزایای بسیاری را ارائه می دهند. کار در یک Cloud IDE ، یک محیط توسعه و آزمایش یکپارچه را برای شما و تیم شما ایجاد می کند ، در عین حال ناسازگاری های پلتفرم را به حداقل می رساند. چون از طریق مرورگرهای وب قابل دسترسی است ، Cloud IDE ها از هر نوع دستگاه مدرن در دسترس هستند. Eclipse Theia یک Cloud IDE قابل توسعه است که بر روی یک

سرور مجازی از راه دور و از یک مرورگر وب قابل دسترسی است. از لحاظ بصری ، طراحی شده است که به طور مشابه با Microsoft Visual Studio Code دیده شود و با آن کار شود ، به این معنی که از بسیاری از زبان های برنامه نویسی پشتیبانی می کند ، دارای یک طرح انعطاف پذیر و یک ترمینال یکپارچه است. آنچه Eclipse Theia را از دیگر نرم افزارهای cloud IDE جدا می کند قابلیت توسعه آن است. می توان آن را با استفاده از افزونه های سفارشی اصلاح کرد ، که به شما امکان می دهد یک Cloud IDE متناسب با نیازهای خود تهیه کنید. در این آموزش ،Eclipse Theia را با استفاده از Docker Compose ، یک ابزار ارکستر، به

سرور مجازی Ubuntu 18.04 خود منتقل خواهید کرد. شما آن را در دامنه خود با استفاده از nginx-proxy ، یک سیستم خودکار برای Docker قرار می دهید که فرایند پیکربندی Nginx را ساده تر می کند تا به عنوان یک پروکسی مع برای یک container سرویس دهد. شما با استفاده از یک گواهی نامه Let Encrypt TLS رایگان ، که با استفاده از افزونه تخصصی آن تهیه می کنید ، آن را ایمن خواهید کرد. در پایان ، شما باید Eclipse Theia را روی

سرور مجازی Ubuntu 18.04 خود از طریق HTTPS در دسترس داشته باشید و از کاربر بخواهید وارد شود. پیش نیازها ⦁ یک

سرور مجازی Ubuntu 18.04 با امتیازات اصلی و یک حساب ثانویه و غیر ریشه. می توانید با دنبال کردن راهنمای تنظیم اولیه

سرور مجازی ما برای Ubuntu 18.04 ، این تنظیمات را انجام دهید. برای این آموزش کاربر غیر ریشه sammy است. ⦁ Docker نصب شده روی

سرور مجازی شما. مرحله 1 و مرحله 2 نحوه نصب Docker را در اوبونتو 18.04 دنبال کنید. برای آشنایی با Docker ، به ایستم Docker: مقدمه ای بر مؤلفه های مشترک مراجعه کنید. ⦁ Docker compose روی

سرور مجازی شما نصب است. مرحله 1 نحوه نصب Docker Compose را در اوبونتو 18.04 دنبال کنید. ⦁ نام دامنه کاملاً ثبت شده. در این آموزش کلا از theia.your_domain استفاده می شود. می توانید نام دامنه را در Namecheap خریداری کنید ، یکی از آنها را به صورت رایگان در Freenom دریافت کنید ، یا از ثبت دامنه مورد نظر خود استفاده کنید. ⦁ یک ثبت A DNS با theia.your_domain که به آدرس IP عمومی

سرور مجازی شما اشاره میکند. برای جزئیات بیشتر در مورد چگونگی اضافه کردن آنها می توانید این معرفی را در

vpsgol DNS دنبال کنید. مرحله 1 - استفاده از پروکسی nginx با Let’s Encrypt در این بخش nginx-proxy و افزونه Let’s Encrypt را با استفاده از Docker Compose به کار میگیرید. این امر امکان تهیه و نوسازی مجوز خودکار TLS را فراهم می کند ، به طوری که هنگام استقرار Eclipse Theia از طریق HTTPS در دامنه شما قابل دسترسی خواهد بود. برای اهداف این آموزش ، تمام فایل ها را تحت ~ / eclipse-theia ذخیره می کنید. با اجرای دستور زیر دایرکتوری ایجاد کنید: ⦁ $ mkdir ~/eclipse-theia به آن مراجعه کنید: ⦁ $ cd ~/eclipse-theia پیکربندی Docker Compose را برای nginx-proxy در فایلی به نام nginx-proxy-compose.yaml ذخیره خواهید کرد. آن را با استفاده از ویرایشگر متن خود ایجاد کنید: ⦁ $nano nginx-proxy-compose.yaml خطوط زیر را اضافه کنید: ~/eclipse-theia/nginx-proxy-compose.yaml version: '2' services: nginx-proxy: restart: always image: jwilder/nginx-proxy ports: - "80:80" - "443:443" volumes: - "/etc/nginx/htpasswd:/etc/nginx/htpasswd" - "/etc/nginx/vhost.d" - "/usr/share/nginx/html" - "/var/run/docker.sock:/tmp/docker.sock:ro" - "/etc/nginx/certs" letsencrypt-nginx-proxy-companion: restart: always image: jrcs/letsencrypt-nginx-proxy-companion volumes: - "/var/run/docker.sock:/var/run/docker.sock:ro" volumes_from: - "nginx-proxy" در اینجا شما دو سرویس را تعریف می کنید که Docker Compose اجرا خواهد کرد ، nginx-proxy و همراه آن Let’s Encrypt. برای پروکسی ، شما jwilder / nginx-proxy را به عنوان تصویر مشخص میکنید، پورت های HTTP و HTTPS را نقشه برداری می کنید ، و حجم هایی را تعریف می کنید که در زمان اجرا در دسترس شما خواهد بود. حجم ها دایرکتوری هایی در

سرور مجازی شما هستند که سرویس تعریف شده به آنها دسترسی کامل خواهد داشت ، که بعداً برای تنظیم تأیید اعتبار کاربر از آنها استفاده خواهید کرد. برای دستیابی به این هدف ، از جلد اول لیست استفاده می کنید ، که دایرکتوری محلی / etc / nginx / htpasswd را به همان قسمت موجود در داخل آن نگاشت می کشد. در آن پوشه ، nginx-proxy انتظار دارد فایلی را به نام دامنه هدف پیدا کند ، که حاوی اطلاعات ورود به سیستم برای احراز هویت کاربر در قالب htpasswd (نام کاربری: hashed_password) است. برای افزودن ، شما تصویر Docker را نامگذاری می کنید و با تعیین یک حجم امکان دسترسی به سوکت Docker را می دهید. سپس ، شما مشخص می کنید که این افزونه باید دسترسی به حجمهای تعریف شده برای nginx-proxy را ادامه دهد. هر دو سرویس تنظیمات راه اندازی مجدد دارند ، که روی ALWAYS تنظیم میشود و به Docker دستور می دهد کانتینر را در صورت خرابی یا ریبوت سیستم مجدداً راه اندازی کند. فایل را ذخیره کنید و ببندید. پیکربندی را با اجرای دستور انجام دهید: ⦁ $ docker-compose -f nginx-proxy-compose.yaml up -d در اینجا نام فایل nginx-proxy-compose.yaml را در پارامتر -f دستور docker-compose می گذارید ، که فایل را برای اجرا مشخص می کند. سپس ، شما فعل UP را می گذرانید که به آن دستور می دهد کانتینرها را اجرا کند. پرچم -d حالت جداشده را فعال می سازد ، به این معنی که Docker Compose کانتینرها را در پس زمینه اجرا می کند. خروجی نهایی به شرح زیر خواهد بود: Output Creating network "eclipse-theia_default" with the default driver Pulling nginx-proxy (jwilder/nginx-proxy:). latest: Pulling from jwilder/nginx-proxy 8d691f585fa8: Pull complete 5b07f4e08ad0: Pull complete . Digest: sha256:dfc0666b9747a6fc851f5fb9b03e65e957b34c95d9635b4b5d1d6b01104bde28 Status: Downloaded newer image for jwilder/nginx-proxy:latest Pulling letsencrypt-nginx-proxy-companion (jrcs/letsencrypt-nginx-proxy-companion:). latest: Pulling from jrcs/letsencrypt-nginx-proxy-companion 89d9c30c1d48: Pull complete 668840c175f8: Pull complete . Digest: sha256:a8d369d84079a923fdec8ce2f85827917a15022b0dae9be73e6a0db03be95b5a Status: Downloaded newer image for jrcs/letsencrypt-nginx-proxy-companion:latest Creating eclipse-theia_nginx-proxy_1 . done Creating eclipse-theia_letsencrypt-nginx-proxy-companion_1 . done شما nginx-proxy و همراهش Let’s Encrypt را با استفاده از Docker Compose به کار گرفته اید. اکنون می توانید Eclipse Theia را در دامنه خود تنظیم کرده و آن را ایمن کنید. مرحله 2 – به کارگیری Eclipse Theia دوکر شده در این بخش ، فایلی را ایجاد خواهید کرد که شامل هر ترکیب ورود به سیستم مجاز است که کاربر باید آن را وارد کند. سپس Eclipse Theia را با استفاده از Docker Compose به

سرور مجازی خود منتقل می کنید و با استفاده از nginx-proxy آن را در دامنه امن خود قرار می دهید. همانطور که در مرحله قبل توضیح داده شد ، nginx-proxy انتظار دارد که ترکیب های ورود به سیستم در فایلی به نام دامنه در معرض ، با فرمت htpasswd قرار بگیرند و در دایرکتوری / etc / nginx / htpasswd در کانتینر ذخیره شوند. همانطور که در پیکربندی nginx-proxy مشخص کرده ایم ، دایرکتوری محلی که به دایرکتوری مجازی نگاشت می کند ، نیازی به یکسان بودن ندارد. برای ایجاد ترکیبات ورود ، ابتدا با اجرای دستور زیر باید htpasswd را نصب کنید: ⦁ $ sudo apt install apache2-utils پکیج apache2-utils حاوی برنامه htpasswd است. دایرکتوری / etc / nginx / htpasswd را ایجاد کنید: ⦁ $ sudo mkdir -p /etc/nginx/htpasswd فایلی ایجاد کنید که ورود به سیستم را برای دامنه شما ذخیره کند: ⦁ $ sudo touch /etc/nginx/htpasswd/theia.your_domain به یاد داشته باشید theia.your_domain را با دامنه Eclipse Theia خود جایگزین کنید. برای افزودن نام کاربری و رمز ورود ، دستور زیر را اجرا کنید: ⦁ $ sudo htpasswd /etc/nginx/htpasswd/theia.your_domain username USERNAME را با نام کاربری که می خواهید اضافه کنید جایگزین کنید. از شما دوبار رمز عبور خواسته می شود. پس از ارائه آن ، htpasswd نام کاربری و جفت رمز عبور را در انتهای فایل اضافه می کند. می توانید این دستور را به هر تعداد ورود به سیستم که میخواهید تکرار کنید. اکنون ، پیکربندی را برای استقرار Eclipse Theia ایجاد خواهید کرد. شما آن را در فایلی به نام eclipse-theia-compose.yaml ذخیره خواهید کرد. آن را با استفاده از ویرایشگر متن خود ایجاد کنید: ⦁ $ nano eclipse-theia-compose.yaml خطوط زیر را اضافه کنید: ~/eclipse-theia/eclipse-theia-compose.yaml version: '2.2' services: eclipse-theia: restart: always image: theiaide/theia:next init: true environment: - VIRTUAL_HOST=theia.your_domain - LETSENCRYPT_HOST=theia.your_domain در این پیکربندی ، شما یک سرویس واحد به نام eclipse-theia با ریستارت برای ALWAYS و theiaide/theia:next به عنوان تصویر کانتینر تعریف می کنید: شما همچنین می توانید init را روی true تنظیم کنید تا به Docker دستور دهید هنگام اجرای Eclipse Theia در داخل کانتینر ، از init به عنوان مدیر اصلی فرآیند استفاده کند. سپس دو متغیر محیط را در بخش environment مشخص می کنید: VIRTUAL_HOST و LETSENCRYPT_HOST. اولین مورد به پروکسی nginx منتقل می شود و به آن می گوید کانتینر چه دامنه ای را باید در معرض دید قرار دهید ، در حالی که دومی توسط افزونه Let’s Encrypt آن استفاده می شود و مشخص می کند که برای کدام دامنه درخواست گواهینامه TLS شود. مگر اینکه یک wildcard را به عنوان مقدار VIRTUAL_HOST تعیین کنید ، این دو مقدار باید یکسان باشند. به یاد داشته باشید theia.your_domain را با دامنه مورد نظر خود جایگزین کنید ، سپس فایل را ذخیره کنید و ببندید. اکنون با اجرای دستور زیر Eclipse Theia را اجرا کنید: ⦁ $ docker-compose -f eclipse-theia-compose.yaml up -d خروجی نهایی مشابه زیر به نظر می رسد: Output . Pulling eclipse-theia (theiaide/theia:next). next: Pulling from theiaide/theia 63bc94deeb28: Pull complete 100db3e2539d: Pull complete . Digest: sha256:c36dff04e250f1ac52d13f6d6e15ab3e9b8cad9ad68aba0208312e0788ecb109 Status: Downloaded newer image for theiaide/theia:next Creating eclipse-theia_eclipse-theia_1 . done سپس در مرورگر خود به دامنه مورد استفاده برای Eclipse Theia بروید. مرورگر شما فوریتی را به شما نشان می دهد که از شما خواسته می شود وارد شوید. پس از ارائه اطلاعات صحیح ، شما وارد Eclipse Theia می شوید و بلافاصله رابط کاربری گرافیکی آن را مشاهده می کنید. در نوار آدرس یک پدلاک را مشاهده خواهید کرد که نشان می دهد اتصال امن است. اگر این را بلافاصله مشاهده نکردید ، چند دقیقه صبر کنید تا گواهینامه های TLS ارائه شود ، سپس صفحه را مجدد بارگیری کنید. اکنون که می توانید به راحتی به cloud IDE خود دسترسی داشته باشید ، در مرحله بعد شروع به استفاده از ویرایشگر خواهید کرد. مرحله 3 - استفاده از رابط Eclipse Theia در این بخش به بررسی برخی از ویژگی های رابط Eclipse Theia می پردازید. در سمت چپ IDE ، یک ردیف عمودی از چهار دکمه وجود دارد که متداول ترین ویژگی های مورد استفاده را در یک صفحه جانبی باز می کند. این نوار قابل تنظیم است بنابراین می توانید این نماها این نوار قابل سفارشی


مقدمه

SSH راه اصلی برای اتصال به

سرورهای راه دور لینوکس و یونیکس مانند از طریق خط فرمان است. که یک اتصال مطمئن فراهم می کند که می توانید از آن برای اجرای دستورات ، تعامل با سیستم و حتی تونل زدن از میان ترافیک نامربوط استفاده کنید. بیشتر کاربران از اصول اولیه چگونگی شروع و اتصال به یک

سرور از راه دور با یک فرمان مانند زیر آگاه هستند: ssh username@remote_server با این حال ، گزینه های بیشتری در رابطه با پیکربندی Demon SSH وجود دارد که می تواند برای افزایش امنیت ، مدیریت اتصالات کاربر و غیره مفید باشد. ما در مورد برخی از گزینه های موجود در اختیار شما بحث خواهیم کرد تا کنترل دقیق تری روی دسترسی SSH داشته باشید. . ما این مفاهیم را به طور نمونه از Ubuntu 12.04

VPS استفاده خواهیم کرد ، اما هر توزیع مدرن لینوکس باید به روشی مشابه عمل کند. کاوش در فایل پیکربندی SSHD منبع اصلی پیکربندی مربوط به Demon SSH در فایل / etc / ssh / sshd_config است. توجه داشته باشید که این با فایل ssh_config متفاوت است ، که پیش فرض سمت مشتری را مشخص می کند. اکنون فایل را با امتیازات ادمین باز کنید: sudo nano /etc/ssh/sshd_config شما یک فایل با ویژگی های کاملاً متفاوت را مشاهده خواهید کرد و خوشبختانه (بسته به توزیع خود) نظرهای زیادی را نیز مشاهده میکنید. در حالی که اکثر توزیع ها کار نسبتاً خوبی برای ایجاد پیش فرض های عاقلانه انجام می دهند ، همچنان جای بهبود و سفارشی سازی وجود دارد. بیایید به برخی از گزینه هایی که قبلاً در فایل ما در اوبونتو 12.04 تنظیم شده اند بپردازیم: پورت ها و پروتکل ها پورت 22: پورتی را که Daemon SSH به دنبال اتصال در آن است ، مشخص می کند. به طور پیش فرض ، اکثر مشتری ها و

سرورها در درگاه 22 کار می کنند ، اما تغییر دادن آن به درگاه متفاوت می تواند به طور بالقوه میزان تلاش ورود به سیستم توسط SSH توسط کاربران مخرب را کاهش دهد. پروتکل 2: SSH از طریق دو نسخه پروتکل بوده است. مگر اینکه به طور خاص نیاز به پشتیبانی مشتریانی داشته باشید که فقط می توانند در پروتکل 1 کار کنند ، توصیه می شود این موارد را رها کنید. کلیدها و جدایی HostKey / etc / ssh / ssh_host…: این خطوط کلیدهای هاست را برای

سرور مشخص می کنند. از این کلیدها برای شناسایی

سرور برای اتصال مشتری استفاده می شود. اگر مشتری قبلاً با

سرور ارتباط برقرار کرده باشد ، می تواند از این کلید برای اعتبار سنجی اتصال جدید استفاده کند. UsePrivilegeSeparation yes: این گزینه به SSH اجازه می دهد تا فرآیندهای کودک را افزایش دهد که فقط امتیازات لازم را برای انجام وظایف خود دارند. این یک ویژگی ایمنی برای جداسازی فرایندها در صورت بهره برداری امنیتی است. KeyRegenerationInterval and ServerKeyBits: این گزینه ها روی کلید

سرور تولید شده برای پروتکل SSH 1 تأثیر می گذارند. اگر خواستار اتصال کانکشن های خود به پروتکل 2 هستید ، لازم نیست که نگران این موضوع باشید. ورود به سیستم و محدودیت ها SyslogFacility and LogLevel : این گزینه ها نحوه ورود به سیستم را مشخص می کنند. گزینه اول مربوط به کد تسهیلات برای پیام های logging است و گزینه دوم سطح ورود به سیستم یا میزان جزئیات را می گوید. LoginGraceTime 120: تعداد ثانیه هایی است که

سرور قبل از جدا شدن از مشتری در صورت عدم ورود موفق به سیستم ، منتظر می ماند. PermitRootLogin yes: این گزینه امکان SSH را با استفاده از حساب root امکان پذیر یا رد می کند. از آنجا که حساب روت یکی از مواردی است که حمله کننده می داند در دستگاه

سرور وجود دارد و از آنجا که دسترسی نامحدود به دستگاه را فراهم می کند ، اغلب یک حساب کاربری بسیار هدفمند است. وقتی یک حساب کاربری معمولی را با امتیازات sudo پیکربندی کردید تنظیم این گزینه روی حالت "خیر" توصیه می شود. StrictModes yes: این به SSH می گوید که از پرونده های پیکربندی سطح کاربر که مجوزهای صحیحی ندارند، چشم پوشی کند. اگر کاربر پرونده های پیکربندی خود را به صورت جهانی قابل خواندن قرار دهد ، پیامدهای امنیتی خواهد داشت. تا زمانی که این مشکل برطرف شود، بهتر است دسترسی برداشته باشد. IgnoreRhosts and RhostsRSAAuthentication : این گزینه ها مشخص می کند که آیا احراز هویت به سبک rhost پذیرفته خواهد شد یا خیر. این دستور پروتکل 1 است که در مورد پروتکل 2 صدق نمی کند. HostbasedAuthentication no: این نسخه پروتکل 2 از مورد فوق است. در اصل، اجازه می دهد تا احراز هویت بر اساس میزبان مشتری در حال اتصال انجام شود. معمولاً فقط برای محیط های ایزوله قابل قبول است ، زیرا امکان جعل اطلاعات منبع وجود دارد. شما می توانید اطلاعات میزبان را در یک فایل /etc/ssh/shosts.equiv یا فایل /etc/hosts.equiv مشخص کنید. این خارج از محدوده این راهنما میباشد. PermitEmptyPasswords no: این گزینه دسترسی SSH را برای حساب هایی که رمز عبور ندارند در هنگام تأیید رمز عبور محدود می کند. این می تواند یک خطر امنیتی بزرگ باشد و تقریباً هرگز نباید آن را تغییر دهید. ChallengeResponseAuthentication: این خط یک نوع تأیید پاسخ-چالش را فعال یا غیرفعال می کند که می توان از طریق PAM پیکربندی کرد. این بحث خارج از محدوده این راهنما است. نمایش X11Forwarding yes: این گزینه به شما امکان می دهد تا واسط های گرافیکی X11کاربر را برای برنامه های روی

سرور به دستگاه مشتری منتقل کنید. این بدان معنی است که می توانید یک برنامه گرافیکی را روی یک سرور شروع کنید، و با آن در سیستم مشتری تعامل داشته باشید. مشتری باید یک سیستم X در دسترس داشته باشد. می توانید این موارد را در OS X نصب کنید و هر لینوکس دسکتاپی این قابلیت را دارد. X11DisplayOffset 10: این یک آفست برای شماره نمایشگر sshd برای ارسال X11 است. این افست اجازه می دهد تا SSH باعث ایجاد پنجره های X11 شود تا از درگیری با

سرور X موجود جلوگیری کند. PrintMotd no: این گزینه مشخص می کند که Daemon SSH نباید پیام فایل روز را بخواند و نمایش دهد. این گاهی اوقات توسط خود shell خوانده می شود ، بنابراین ممکن است شما نیاز به تغییر پرونده های ترجیحی shell خود نیز داشته باشید. PrintLastLog yes: این به Daemon SSH می گوید تا اطلاعات آخرین باری که وارد سیستم شدید را چاپ کند. اتصال و محیط TCPKeepAlive yes: مشخص می کند که آیا پیام های نگهدارنده TCP به دستگاه مشتری ارسال می شوند. این می تواند به

سرور در هنگام بروز مشکل و قطع اتصال کمک کند. اگر این گزینه غیرفعال باشد ، در صورت بروز مشکل در شبکه ، اتصالات از بین نمی روند ، که می تواند خوب باشد ، اما همچنین بدان معنی است که ارتباط کاربران می تواند از هم قطع شود و همچنان به قفل کردن منابع ادامه دهند. AcceptEnv LANG LC_ *: این گزینه به شما امکان می دهد متغیرهای محیطی خاصی را از دستگاه مشتری قبول کنید. در این مثال خاص ، ما متغیرهای زبان را می پذیریم ، که می تواند به بخش shell کمک کند که به درستی برای مشتری نمایش داده شود. Subsystem sftp /usr/lib/openssh/sftp-serve: زیر سیستم های خارجی را که می توان با SSH استفاده کرد پیکربندی می کند. در این مثال

سرور SFTP و مسیر اجرای آن مشخص شده است. UsePAM yes: این مشخص می کند که PAM (ماژول های تأیید قابل اتصال) برای کمک به تأیید اعتبار کاربران در دسترس خواهد بود. این امر به گزینه های پیش فرض فعال شده دستگاه Ubuntu 12.04 ما احتیاج دارد. در مرحله بعدی، بگذارید درباره برخی گزینه های دیگر صحبت کنیم که ممکن است برای تنظیم یا تغییر برای شما مفید باشد. سایر گزینه های SSHD چندین گزینه دیگر وجود دارد که می توانیم برای Daemon SSH خود تعیین کنیم. برخی از این موارد ممکن است فوراً برای شما مفید باشد ، در حالی که برخی دیگر فقط در شرایط خاص می توانند مفید باشند. ما در اینجا به همه موارد نمی پردازیم ، اما برخی از موارد مفید را مرور خواهیم کرد. فیلتر کاربری و گروهی برخی گزینه ها به شما امکان می دهند دقیقاً کنترل کنید که کاربران از چه طریق امکان ورود به سیستم از طریق SSH را دارند. این گزینه ها باید به صورت انحصاری در نظر گرفته شوند. به عنوان مثال ، گزینه AllowUsers به این معنی است که از دسترسی سایر کاربران جلوگیری می شود. AllowGroups: این گزینه به شما امکان می دهد نام گروه ها را روی

سرور مشخص کنید. فقط کاربرانی که عضو یکی از این گروه ها هستند ، می توانند وارد سیستم شوند. این یک لیست سفید از گروه هایی ایجاد می کند که باید دسترسی داشته باشند. AllowUsers: مشابه گزینه فوق است ، اما کاربران خاصی را که مجاز به ورود به سیستم هستند مشخص می کند. هر کاربر که در این لیست نباشد قادر به ورود به سیستم نخواهد بود. و به عنوان یک لیست سفید کاربری کار می کند. DenyGroups: این گزینه یک لیست سیاه از گروههایی را ایجاد می کند که نباید اجازه ورود به سیستم را داشته باشند. کاربرانی که به این گروه ها تعلق دارند ، اجازه دسترسی ندارند. DenyUsers: این یک لیست سیاه برای کاربران است. به طور خاص مشخص می کند که به کدام یک از کاربران امکان ورود به سیستم از طریق SSH داده نمی شود. علاوه بر این ، برخی از گزینه های محدود کننده دیگر نیز در دسترس هستند. اینها را می توان در رابطه با هر یک از گزینه های فوق استفاده کرد: Match: این گزینه امکان کنترل بسیار دقیق تر بر روی افرادی را دارد که تحت چه شرایطی می توانند تأیید کنند. این مجموعه گزینه های متفاوتی را مشخص می کند که هنگام اتصال یک کاربر یا گروه خاص باید از آنها استفاده شود. ما بعداً با جزئیات بیشتری در مورد این موضوع بحث خواهیم کرد. RevokenKeys: این به شما امکان می دهد لیستی از کلیدهای عمومی ابطال شده را مشخص کنید. این کار از ورود کلیدهای ذکر شده برای ورود به سیستم جلوگیری می کند. گزینه های متفرقه گزینه هایی وجود دارد که می توانیم از آنها استفاده کنیم تا پیکربندی کنیم چه ترافیک شبکه ای را Daemon SSH به آن توجه خواهد کرد: AddressFamily: این گزینه مشخص می کند که چه نوع آدرس هایی را انتخاب می کنید که اتصالات آن ها را بپذیرید. به طور پیش فرض ، مقدار "هر" است ، اما می توانید "inet" را برای آدرسهای IPv4 یا "inet6" را برای آدرسهای IPv6 قرار دهید. ListenAddress: این گزینه به شما امکان می دهد تا به Daemon SSH بگویید که در یک آدرس و پورت خاص گوش کند. Daemon به طور پیش فرض تمام آدرسهایی را که برای این دستگاه پیکربندی شده است گوش می دهد. انواع دیگر گزینه هایی که در دسترس هستند عبارتند از مواردی که برای تنظیم تأیید هویت مبتنی بر گواهینامه ، گزینه های محدود کننده اتصال مانند ClientAliveCountMax و ClientAliveInterval و گزینه هایی مانند ChrootDirectory استفاده می شود ، که می تواند برای قفل کردن ورود به سیستم کاربر به یک فضای خاص و محیط از پیش تنظیم شده Chroot استفاده شود. . محدود کردن ورود به سیستم کاربر ما در بالا به برخی از ابزارهایی که شما باید دسترسی کاربران و گروه ها را محدود کنید ، اشاره کردیم. بیایید کمی با جزئیات بیشتر بحث کنیم. ابتدایی ترین دستور برای استفاده از این موارد چیزی شبیه به زیر است: AllowUsers demouser fakeuser madeupuser همانطور که مشاهده می کنید، ما می توانیم کاربرهای مختلفی را از هم جدا کنیم که در هر یک از این دستورالعمل ها قرار دارند. ما همچنین می توانیم از wild cards استفاده کرده و ورودی ها را نفی کنیم. به عنوان مثال ، اگر می خواستیم به همه کاربرها به جز "جان" اجازه ورود به سیستم بدهیم ، می توانیم چیزی شبیه به این را امتحان کنیم: AllowUsers * !john این نمونه خاص احتمالاً با خط DenyUsers بهتر بیان می شود: DenyUsers john ما همچنین می توانیم از علامت ? برای مطابقت دقیق با یک حرف استفاده کنیم، به عنوان مثال میتوانیم از دستور زیر استفاده کنیم: AllowUsers ?im این کار اجازه می دهد تا از حساب هایی مانند "tim" ، "jim" یا "vim" وارد شوید. با این حال ما می توانیم مشخص تر شویم. در هر دو مشخصات کاربر ، می توانیم از فرم کاربر user@hostname استفاده کنیم تا ورود به مکانهای منبع خاص مشتری محدود شود. به عنوان مثال ، شما می توانید چیزی مانند دستور زیر را تایپ کنید: AllowUsers demouser@host1.com fakeuser این کار باعث می شود "fakeuser" از هرجای دیگری وارد سیستم شود ، اما فقط به "demouser" اجازه می دهد تا از یک هاست مشخص وارد شود. ما همچنین می توانیم دسترسی را به صورت میزبان به میزبان در خارج از فایل sshd_config از طریق بسته های TCP محدود کنیم. این از طریق فایل های /etc/hosts.allow و /etc/hosts.deny پیکربندی میشود. به عنوان مثال ، ما می توانیم دسترسی را به طور خاص بر اساس ترافیک SSH با اضافه کردن خط هایی مانند زیر به فایل hosts.allow محدود کنیم: sshd: .example.com با فرض اینکه ما در فایل hosts.deny یک خط همراه داریم که به صورت زیر است: sshd: ALL این کار ورود به سیستم را فقط برای افرادی که از example.com یا یک زیر دامنه وارد می شوند محدود می کند. استفاده از گزینه های مطابقت برای اضافه کردن استثنائات ما می توانیم با استفاده از گزینه های "match" گزینه های خود را حتی بیشتر کنترل کنیم. گزینه های مطابقت با مشخص کردن الگوی معیاری کار میکنند که تصمیم می گیرند که گزینه های زیر استفاده خواهد شد یا خیر. ما یک مطابقت را با استفاده از گزینه Match و سپس مشخص کردن جفت های معیاری با ارزش کلیدی شروع می کنیم. کلیدهای موجود "کاربر" ، "گروه" ، "میزبان" و "آدرس" هستند. ما می توانیم معیارها را با فاصله جدا کنیم و الگوها (user1، user2) را با کاما از هم جدا کنیم. ما همچنین می توانیم از wild cards و خنثی سازی استفاده کنیم: Match User !demouser,!fakeuser Group sshusers Host *.example.com خط بالا فقط در صورتی مطابقت دارد که کاربر demouser یا fakeuser نباشد ، در صورتی که کاربر عضو گروه sshusers باشد و در صورت اتصال آن از example.com یا یک زیر دامنه استفاده کند. معیارهای "آدرس" می توانند از نماد net Cask CIDR استفاده کنند. گزینه هایی که از مشخصات مطابقت پیروی می کنند بصورت مشروط اعمال می شوند. دامنه این گزینه های شرطی تا پایان پرونده یا مشخصات مطابقت بعدی است. به همین دلیل توصیه می شود مقادیر پیش فرض خود را در بالای فایل قرار دهید و استثنائات خود را در انتهای آن قرار دهید. به دلیل این بلوک شرطی ، گزینه های موجود تحت مطابقت اغلب بیان میکنند که فقط در انطباق فوق اعمال می شوند. به عنوان مثال ، شرط فوق می تواند بلوکی مانند این تحت آن داشته باشد: Match User !demouser,!fakeuser Group sshusers Host *.example.com AuthorizedKeysFile /sshusers/keys/%u PasswordAuthentication yes X11Forwarding X11DisplayOffset 15 شما فقط هنگام برخورد با مشخصات انطباق به زیر مجموعه گزینه ها دسترسی دارید. برای دیدن لیست کامل ، صفحه sshd_config را ببینید: man sshd_config برای دیدن لیست گزینه های موجود ، بخش "مطابقت" را جستجو کنید. نتیجه همانطور که مشاهده می کنید ، می توانید مقادیر زیادی را در سمت

سرور SSH تنظیم کنید که در توانایی کاربران برای ورود به سیستم و کیفیت تجربه آنها تأثیر می گذارد. اطمینان حاصل کنید که تغییرات خود را قبل از اجرای مقیاس گسترده با دقت آزمایش کنید تا خطاها را پیدا کنید و اطمینان حاصل کنید که محدودیت های شما به طور تصادفی روی تعداد کمی از کاربران یا تعداد خیلی زیادی تأثیر نمگذارد. آشنایی با فایل / etc / ssh / sshd_config اولین قدم بزرگ در جهت درک چگونگی کنترل دقیق دسترسی به

سرور شماست. و یک مهارت مهم برای هر مدیر سیستم لینوکس میباشد.


مقدمه

WordPress یک سیستم مدیریت محتوای منبع باز (CMS) است. WordPress محبوب ترین CMS در جهان است که به شما امکان می دهد تا وبلاگ ها و وب سایت هایی را فراتر از پایگاه داده MySQL تنظیم کنید ، از PHP برای اجرای اسکریپت ها و پردازش محتوای پویا استفاده کنید. OpenLiteSpeed یک

سرور وب منبع باز بهینه شده است که می توانید از آن برای مدیریت و سرویس وب سایت ها استفاده کنید. OpenLiteSpeed دارای برخی ویژگی های مفید است که آن را به گزینه ای مناسب برای بسیاری از نصب ها تبدیل می کند: قوانین بازنویسی سازگار با Apache، یک رابط کاربری مدیریت مبتنی بر وب و پردازش PHP سفارشی برای بهینه سازی سرور. این راهنما روند نصب و تنظیم یک نمونه وردپرس را در Ubuntu 18.04 با استفاده از وب

سرور OpenLiteSpeed طی خواهد کرد. از آنجا که هم WordPress و OpenLiteSpeed می توانند از طریق یک مرورگر وب مدیریت شوند ، این پیکربندی برای کسانی که دسترسی منظم به بخش SSH ندارند یا کسانی که ممکن است احساس راحتی مدیریت یک سرور وب از طریق خط فرمان را نداشته باشند ، ایده آل است. پیش نیازها قبل از شروع این راهنما به موارد زیر نیاز خواهید داشت: یک

سرور که Ubuntu 18.04 را اجرا میکند با یک ادمین، یک کاربر غیر روت و فایروال با استفاده از ufw پیکربندی کرده است. برای تنظیم این محیط ، آموزش اولیه سرور ما را برای اوبونتو 18.04 دنبال کنید. OpenLiteSpeed بر روی

سرور شما نصب شده است. برای راهنمایی در مورد نصب و پیکربندی OpenLiteSpeed به راهنمای ما در مورد نحوه نصب OpenLiteSpeed وب

سرور در اوبونتو 18.04 مراجعه کنید. MySQL بر روی

سرور شما نصب شده است. برای تنظیم این روش نحوه نصب MySQL را در اوبونتو 18.04 دنبال کنید. مرحله 1 - ایجاد یک بانک اطلاعاتی و کاربر بانک اطلاعاتی برای وردپرس WordPress از MySQL برای مدیریت و ذخیره اطلاعات سایت و کاربر استفاده می کند. شما قبلاً MySQL را نصب کرده اید ، اما به عنوان یک مرحله مقدماتی به ایجاد یک بانک اطلاعاتی و یک کاربر برای استفاده از وردپرس نیاز دارید. برای شروع کار ، با استفاده از SSH به

سرور خود وصل شوید: ssh sammy @ your_server_IP سپس وارد حساب ریشه MySQL شوید: sudo mysql توجه: اگر مرحله 3 را در پیش نیاز آموزش MySQL به پایان رسانده اید و کاربر root MySQL را برای تأیید اعتبار با افزونه mysql_native_password پیکربندی کرده اید ، باید دستور زیر را وارد کنید: mysql -u root -p سپس در صورت درخواست رمزعبور کاربر اصلی خود را وارد کنید. از تبلیغ MySQL ، یک پایگاه داده با دستور زیر ایجاد کنید. در اینجا ، ما این دیتابیس را برای سادگی وردپرس نام می گذاریم ، اما شما می توانید آن را هرچه دوست دارید نامگذاری کنید: CREATE DATABASE wordpress DEFAULT CHARACTER SET utf8 COLLATE utf8_unicode_ci; سپس ، یک کاربر ایجاد کرده و به آن امتیازات بانک اطلاعاتی که اخیراً ایجاد کرده اید بدهید. باز هم ، می توانید هر نامی را به این کاربر بدهید ، اما برای سادگی ما آن را wordpressuser می نامیم. همچنین ، حتماً گذرواژه را به یک رمز عبور قوی با انتخاب خود تغییر دهید: GRANT ALL PRIVILEGES ON wordpress.* TO 'wordpressuser'@'localhost' IDENTIFIED BY 'password'; سپس ، PRUSILEGES FLUSH را اجرا کنید که به

سرور می گوید جداول اعطای امتیاز را مجدد لود کند و اعمال تغییرات جدید خود را اجرا کنید ،: FLUSH PRIVILEGES; پس از آن ، می توانید اعلان MySQL را ببندید: exit اکنون نصب MySQL خود برای کار با WordPress را انجام داده اید. در مرحله بعد چند افزونه PHP نصب خواهیم کرد. مرحله 2 - نصب افزونه های اضافی PHP در آموزش پیش نیاز OpenLiteSpeed ، بسته lsphp73 را نصب کردید. این مجموعه ای از PHP بهینه شده برای OpenLiteSpeed است که از LiteSpeed SAPI برای ارتباط با برنامه های خارجی استفاده می کند. بسته به نیاز شما ، وردپرس ممکن است نیاز به سایر افزونه های PHP داشته باشد تا بتواند به دلخواه عمل کند. برای نصب برخی افزونه های PHP که معمولاً با WordPress استفاده می شود ، دستور زیر را اجرا کنید: sudo apt install lsphp73-common lsphp73-curl lsphp73-imagick lsphp73-imap lsphp73-json lsphp73-memcached lsphp73-mysql lsphp73-opcache lsphp73-redis توجه: بسته های این دستور ممکن است تمام موارد استفاده را پوشش ندهد. برای یک لیست کامل از افزونه های PHP 7.3 موجود از مخزن LiteSpeed که در آموزش پیش نیاز به

سرور خود اضافه کرده اید ، به Wiki LiteSpeed مراجعه کنید. پس از این ، می توانید به سمت دانلود و تنظیم وردپرس در

سرور خود بروید. مرحله 3 - دانلود وردپرس اکنون که نرم افزار

سرور شما پیکربندی شده است ، می توانید WordPress را نصب و تنظیم کنید. به ویژه به دلایل امنیتی ، همیشه توصیه می شود که آخرین نسخه وردپرس را مستقیماً از سایت خودشان دریافت کنید. به یک دیرکتوری قابل نوشتار بروید و سپس نسخه فشرده شده را با تایپ کردن دستور زیر دانلود کنید: cd /tmp curl -O https://wordpress.org/latest.tar.gz برای ایجاد ساختار دایرکتوری وردپرس ، فایل فشرده شده را استخراج کنید: tar xzvf latest.tar.gz ما این پرونده ها را لحظه به لحظه به ریشه سند منتقل خواهیم کرد ، اما ابتدا چند فایل و فهرست را ایجاد خواهیم کرد که نصب وردپرس به آنها بستگی دارد. OpenLiteSpeed از فایل های .htaccess پشتیبانی می کند. این برای اهداف ما مهم است ، از آنجا که وردپرس از فایلهای .htaccess برای ایجاد و مدیریت پرونده های ثابت استفاده می کند. یک فایل .htaccess ساختگی اضافه کنید تا بعداً برای استفاده وردپرس در دسترس باشد: touch /tmp/wordpress/.htaccess سپس ، فایل پیکربندی نمونه را بر روی نام خانوادگی که وردپرس میخواند، کپی کنید: cp /tmp/wordpress/wp-config-sample.php /tmp/wordpress/wp-config.php علاوه بر این ، دایرکتوری upgrade را ایجاد کنید تا وردپرس هنگام تلاش برای انجام این کار به تنهایی و به دنبال بروزرسانی در نرم افزار خود ، به مشکلات مربوط به مجوزها برخورد نکند: mkdir /tmp/wordpress/wp-content/upgrade سپس کل محتوای فهرست را در روت سند خود کپی کنید.OpenLiteSpeed با یک میزبان مجازی پیش فرض به نام Example در دیرکتوری / usr / local / lsws / قرار دارد. روت سند برای میزبان مجازی Example زیرمجموعه html است: sudo cp -a /tmp/wordpress/. /usr/local/lsws/Example/html/wordpress توجه کنید که این دستور شامل یک نقطه در انتهای فهرست منبع است تا نشان دهد که همه چیزهای داخل دیرکتوری باید کپی شوند ، از جمله پرونده های مخفی (مانند پرونده .htaccess که ایجاد کردید): با این کار ، شما وردپرس را با موفقیت روی

سرور وب خود نصب کرده اید و برخی از مراحل اولیه تنظیمات را انجام داده اید. در مرحله بعد ، ما تغییرات دیگری را در پیکربندی انجام خواهیم داد که امتیازات وردپرس را برای عملکرد ایمن و دسترسی به بانک اطلاعاتی MySQL و حساب کاربری که قبلاً ایجاد کرده اید به شما می دهد. مرحله 4 - پیکربندی دایرکتوری وردپرس قبل از اینکه بتوانیم فرآیند راه اندازی مبتنی بر وب را برای وردپرس طی کنیم ، باید برخی موارد را در دایرکتوری وردپرس خود تنظیم کنیم. با دادن مالکیت کلیه فایل های موجود در دیرکتوری به کاربر nobody و گروه nogroup ، که وب

سرور OpenLiteSpeed بصورت پیش فرض اجرا می کند ، شروع کنید. دستور chown زیر به OpenLiteSpeed امکان خواندن و نوشتن فایل ها در دایرکتوری وردپرس را اعطا می کند ، و این امکان را برای سرویس دهی به وب سایت و انجام به روز رسانی های خودکار فراهم می کند: sudo chown -R nobody:nogroup /usr/local/lsws/Example/html/wordpress برای تنظیم مجوزهای صحیح در دایرکتوری ها و فایل های وردپرس ، دو دستور find اجرا کنید: sudo find /usr/local/lsws/Example/html/wordpress/ -type d -exec chmod 750 {} \; sudo find /usr/local/lsws/Example/html/wordpress/ -type f -exec chmod 640 {} \; اینها باید مجوزهای معقولی برای شروع باشد ، اگرچه برخی از افزونه ها و رویه ها ممکن است نیاز به ترفندهای اضافی داشته باشند. پس از این ، شما باید تغییراتی در پرونده اصلی پیکربندی WordPress انجام دهید. با باز کردن فایل ، اولین هدف شما تنظیم برخی کلیدهای مخفی برای ایجاد امنیت برای نصب شما خواهد بود. WordPress یک مولد مطمئن برای این مقادیر فراهم می کند به طوری که دیگر نیازی به تلاش برای دستیابی به مقادیر خوب از خودتان نیست. اینها فقط به صورت داخلی استفاده می شود ، بنابراین به مقادیر پیچیده و ایمن در اینجا آسیب نمی رساند. برای گرفتن مقادیر ایمن از مولد کلید مخفی WordPress ، تایپ کنید: curl -s https://api.wordpress.org/secret-key/1.1/salt/ شما به مقادیر منحصر به فردی بر می گردید که چیزی شبیه به این است: هشدار! مهم است که هر بار درخواست مقادیر منحصر به فرد کنید. مقادیر نشان داده شده در زیر را کپی نکنید! خروجی define('AUTH_KEY', '1jl/vqfs define('SECURE_AUTH_KEY', 'E2N-h2]Dcvp+aS/p7X DO NOT COPY THESE VALUES {Ka(f;rv?Pxf})CgLi-3'); define('LOGGED_IN_KEY', 'W(50,{W^,OPB%PB define('NONCE_KEY', 'll,4UC)7ua+8<!4VM+ DO NOT COPY THESE VALUES #`DXF+[$atzM7 o^-C7g'); define('AUTH_SALT', 'koMrurzOA+|L_lG}kf DO NOT COPY THESE VALUES 07VC*Lj*lD&?3w!BT#-'); define('SECURE_AUTH_SALT', 'p32*p,]z%LZ+pAu:VY DO NOT COPY THESE VALUES C-?y+K0DK_+F|0h{!_xY'); define('LOGGED_IN_SALT', 'i^/G2W7!-1H2OQ+t$3 DO NOT COPY THESE VALUES t6**bRVFSD[Hi])-qS`|'); define('NONCE_SALT', 'Q6]U:K?j4L%Z]}h^q7 DO NOT COPY THESE VALUES 1% ^qUswWgn+6&xqHN&%'); اینها خطوط پیکربندی هستند که شما برای تنظیم کلیدهای ایمن مستقیماً در پرونده پیکربندی خود پیست میکنید. خروجی دریافت شده را در کلیپ بورد خود کپی کنید ، و سپس پرونده پیکربندی WordPress واقع در روت سند خود را باز کنید: sudo nano /usr/local/lsws/Example/html/wordpress/wp-config.php بخشی که حاوی مقادیر ساختگی برای آن تنظیمات است را پیدا کنید. چیزی شبیه به این خواهد بود: /var/www/wordpress/wp-config.php . . . define('AUTH_KEY', 'put your unique phrase here'); define('SECURE_AUTH_KEY', 'put your unique phrase here'); define('LOGGED_IN_KEY', 'put your unique phrase here'); define('NONCE_KEY', 'put your unique phrase here'); define('AUTH_SALT', 'put your unique phrase here'); define('SECURE_AUTH_SALT', 'put your unique phrase here'); define('LOGGED_IN_SALT', 'put your unique phrase here'); define('NONCE_SALT', 'put your unique phrase here'); این سطرها را حذف کرده و در مقادیری که از خط فرمان کپی کرده اید پیست کنید: /var/www/wordpress/wp-config.php . . . define('AUTH_KEY', 'VALUES COPIED FROM THE COMMAND LINE'); define('SECURE_AUTH_KEY', 'VALUES COPIED FROM THE COMMAND LINE'); define('LOGGED_IN_KEY', 'VALUES COPIED FROM THE COMMAND LINE'); define('NONCE_KEY', 'VALUES COPIED FROM THE COMMAND LINE'); define('AUTH_SALT', 'VALUES COPIED FROM THE COMMAND LINE'); define('SECURE_AUTH_SALT', 'VALUES COPIED FROM THE COMMAND LINE'); define('LOGGED_IN_SALT', 'VALUES COPIED FROM THE COMMAND LINE'); define('NONCE_SALT', 'VALUES COPIED FROM THE COMMAND LINE'); . . . سپس ، تنظیمات اتصال دیتابیس را در بالای فایل اصلاح کنید. شما باید نام بانک اطلاعاتی ، کاربر پایگاه داده و رمز عبور مرتبط با آن را در MySQL تنظیم کنید. تغییر دیگری که شما باید ایجاد کنید این است که روشی را که وردپرس برای نوشتن در سیستم فایل ها باید استفاده کند تنظیم کنید. از آنجایی که به ما اجازه

سرور وب داده شده است که در هر جا لازم است بنویسیم، می توانیم به طور صریح روش سیستم فایل را به direct تنظیم کنیم. عدم تنظیم این با تنظیمات فعلی ما منجر به اعلان وردپرس برای اعتبار FTP در هنگام برخی عملکردهای خاص میشود. این تنظیمات می تواند در زیر تنظیمات اتصال دیتابیس یا هر جای دیگر فایل اضافه شود: /var/www/wordpress/wp-config.php . . . define('DB_NAME', 'wordpress'); /** MySQL database username */ define('DB_USER', 'wordpressuser'); /** MySQL database password */ define('DB_PASSWORD', 'password'); . . . define('FS_METHOD', 'direct'); هنگامی که کارتان تمام شد، فایل را ذخیره کنید و ببندید. در این مرحله ، وردپرس کاملاً در سیستم شما پیکربندی نشده است ، زیرا هنوز لازم است قبل از شروع انتشار مطالب ، چند کار نهایی را اعمال کنید. برای انجام این کار ، ابتدا لازم است چند تغییر تنظیمات در نصب OpenLiteSpeed خود اعمال کنید. مرحله 6 – پیکربندی OpenLiteSpeed در حال حاضر ، شما WordPress را در

سرور Ubuntu خود نصب کرده اید ، اما نصب OpenLiteSpeed شما هنوز برای ارائه آن تنظیم نشده است. در این مرحله ، ما به رابط اجرایی OpenLiteSpeed دسترسی خواهیم داشت و چند تغییر در پیکربندی

سرور شما ایجاد می کنیم. در مرورگر وب مورد نظر خود، به رابط اداری OpenLiteSpeed بروید. می توانید این را با وارد کردن آدرس IP عمومی

سرور خود یا نام دامنه مرتبط با آن ، و به دنبال آن: 7080 در نوار آدرس مرورگر خود بیابید: https: // server_domain_or_IP: 7080 در آنجا به شما یک صفحه ورود به سیستم ارائه می شود. نام کاربری و رمز عبوری را که در آموزش پیش نیاز OpenLiteSpeed تعریف کرده اید وارد کنید: از کنسول OpenLiteSpeed ، در منوی نوار کناری سمت چپ ، بر روی تنظیمات

سرور کلیک کنید. سپس به سربرگ External App بروید ، ردیف برنامه LiteSpeed SAPI را پیدا کنید و بر روی دکمه Edit آن کلیک کنید: به یاد بیاورید که در پیش نیاز آموزش OpenLiteSpeed ، بسته lsphp73 را نصب کردید ، تلفیقی از PHP بهینه سازی شده برای کار با OpenLiteSpeed از طریق LiteSpeed SAPI. با این حال ، تنظیمات پیش فرض در صفحه External App به lsphp اشاره دارد نه lsphp73. به همین دلیل ، نصب OpenLiteSpeed شما قادر به اجرای صحیح اسکریپت های PHP نیست. برای تصحیح این امر ، قسمت Name را به lsphp73 تغییر دهید ، قسمت آدرس را به uds: //tmp/lshttpd/lsphp73.sock تغییر دهید و قسمت Command را به SERVER_ROOT / lsphp73 / bin / lsphp: پس از ایجاد آن تغییرات ، روی آی save در گوشه سمت راست بالای کادر LiteSpeed SAPI App کلیک کنید. سپس، در منوی سمت چپ روی Virtual Hosts کلیک کنید. در صفحه Virtual Hosts میزبان مجازی مورد نظر خود را پیدا کنید و بر روی نماد View آن کلیک کنید. در اینجا ، ما از هاست مجازی مثال پیش فرض استفاده خواهیم کرد: به سربرگ General هاست مجازی بروید. در آنجا بخش General را پیدا کنید و روی دکمه edit آن کلیک کنید: OpenLiteSpeed برای ارائه خدمات به دنبال محتویات Document Root میگردد. از آنجا که تمام مطالب و فایل های وردپرس شما در دیرکتوری وردپرس که قبلا ایجاد شده ذخیره می شوند، قسمت Document Root را به روز کنید تا به آن دیرکتوری راهنمایی کنید. برای انجام این کار ، تنها کاری که باید انجام دهید اضافه کردن وردپرس / به پایان مقدار پیش فرض است: برای ذخیره این تغییر، روی آی save کلیک کنید. در مرحله بعد ، باید پرونده های index.php را فعال کنید تا از آنها برای پردازش درخواست هایی که توسط پرونده های استاتیک مدیریت نمی شوند ، استفاده شود. با این کار منطق اصلی وردپرس به درستی کار می کند. در حالی که هنوز در تب General هستید، برای یافتن بخش Index Files به پایین بروید و بر روی نماد edit آن کلیک کنید: در قسمت Index Files ، index.html را با index.php پیش ببرید. با قرار دادن index.php قبل از index.html ، به فایلهای شاخص PHP اجازه می دهید که اولویت داشته باشند. پس از به روزرسانی این قسمت ، مانند عکس خواهد بود قبل از ادامه ، روی آی save کلیک کنید. در مرحله بعد ، به سربرگ Rewrite هاست مجازی بروید. بخش Rewrite Control را پیدا کنید و دکمه ویرایش را فشار دهید: با کلیک بر روی دکمه های شعاعی مربوطه ، هر دو گزینه Enable Rewrite و Auto Load را از گزینه های .htaccess روی Yes بگذارید. پیکربندی دستورالعمل های بازنویسی در این روش به شما امکان می دهد از نصب مجدد لینک ها در نصب وردپرس خود استفاده کنید: بعد از انجام تغییرات ، روی ذخیره کلیک کنید. هاست مجازی پیش فرض که همراه با نصب OpenLiteSpeed است شامل برخی از نواحی محافظت شده با رمز عبور برای نمایش ویژگی های تأیید اعتبار کاربر OpenLiteSpeed. است. WordPress شامل مکانیزم های تأیید اعتبار خاص خود است و ما از هویت مبتنی بر پرونده موجود در OpenLiteSpeed استفاده نخواهیم کرد. برای به حداقل رساندن بخش های پیکربندی انحرافی فعال در نصب وردپرس ما باید از این موارد خلاص شویم. ابتدا بر روی زبانه Security کلیک کرده و سپس بر روی دکمه Delete کنار SampleProtectedArea در جدول Realms List کلیک کنید: از شما خواسته می شود حذف را تأیید کنید. برای ادامه بر روی delete کلیک کنید در مرحله بعد ، روی سربرگ Context کلیک کنید. در Context List ، محتوای /protected/ را که با قلمرو امنیتی که اخیراً حذف کردید مرتبط بود را حذف کنید: مجدداً باید با کلیک کردن روی delete ، حذف را تأیید کنید. شما می توانید با اطمینان با استفاده از همان تکنیک ، همه متن های دیگر را پاک کنید ، زیرا ما به آنها احتیاج نخواهیم داشت. ما به طور خاص محتوای /protected/ متن را حذف کردیم زیرا در غیر این صورت خطایی به دلیل حذف قلمرو امنیت مرتبط با آن ایجاد می شود (که ما فقط در تب Security حذف کرده ایم.) پس از آن ، در گوشه سمت راست بالای کنسول OpenLiteSpeed ، آی Graceful Restart را فشار دهید. با این کار

سرور OpenLiteSpeed دوباره راه اندازی می شود و باعث می شود تغییراتی که ایجاد کرده اید به مرحله اجرا برسد: با این کار ،

سرور OpenLiteSpe شما کاملاً پیکربندی شده است. اکنون آماده تنظیم وردپرس در مرورگر خود هستید. مرحله 7 - تکمیل نصب از طریق واسط وردپرس اکنون که پیکربندی

سرور کامل شد ، می توانیم نصب را از طریق رابط وب انجام دهیم. در مرورگر وب خود ، به نام دامنه

سرور یا آدرس IP عمومی خود بروید: http: // server_domain_or_IP زبانی را که می خواهید استفاده کنید انتخاب کنید: در مرحله بعد به صفحه اصلی تنظیمات خواهید رسید. یک نام برای سایت وردپرس خود انتخاب کنید و یک نام کاربری را انتخاب کنید (توصیه می شود برای اهداف امنیتی چیزی مانند "ادمین" انتخاب نکنید). رمزعبور قوی به صورت خودکار ایجاد می شود. این رمز عبور را ذخیره کنید یا یک رمزعبور قوی دیگر را انتخاب کنید. آدرس ایمیل خود را وارد کنید و انتخاب کنید آیا می خواهید موتورهای جستجو را از ایند سایت خود منع کنید: پس از آماده شدن ، روی دکمه Install WordPress کلیک کنید. شما به صفحه ای منتهی می شوید که وارد سیستم شوید: پس از ورود به سیستم ، شما به داشبورد مدیریت وردپرس منتقل می شوید: از داشبورد ، می توانید تغییراتی در تم سایت خود و انتشار محتوای آن ایجاد کنید. نتیجه با تکمیل این راهنما ، یک نمونه وردپرس را روی

سرور اوبونتو 18.04 که OpenLiteSpeed را اجرا می کند ، نصب و پیکربندی کردید. برخی مراحل متداول بعدی باید برای تنظیمات پیوند مجدد پست های شما انتخاب شوند (که می توانید در Settings > Permalinksپیدا کنید) یا انتخاب یک تم جدید (در Appearance > Themes). اگر این اولین باری است که از WordPress استفاده می کنید ، کمی رابط را جستجو کنید تا با CMS جدید خود آشنا شوید. برای افزایش امنیت سایت جدید وردپرس خود ، توصیه می کنیم آن را پیکربندی کنید تا با SSL کار کند تا بتواند از طریق HTTPS محتوا را ارائه دهد. برای نصب LetsEncrypt و تنظیم این آموزش ، از اسناد OpenLiteSpeed بازدید کنید.


یک کارگزار پیام توزیع شده محبوب است که برای مدیریت حجم زیادی از داده های زمان-واقعی طراحی شده است. خوشه کافکا بسیار مقیاس پذیر و دارای تحمل خطا است و همچنین نسبت به سایر واسطه های پیام مانند ActiveMQ و RabbitMQ از توان بسیار بالاتری برخوردار است. اگرچه معمولاً از آن به عنوان یک سیستم پیام رسان انتشار / اشتراک استفاده می شود ، بسیاری از سازمان ها نیز از آن برای جمع آوری ورود به سیستم استفاده می کنند زیرا فضای ذخیره سازی مداوم را برای پیام های منتشر شده ارائه می دهد. یک سیستم پیام رسانی انتشار / اشتراک به یک یا چند تولید کننده اجازه می دهد پیام ها را بدون در نظر گرفتن تعداد مصرف کنندگان یا نحوه پردازش پیام ها منتشر کنند. متقاضیان دارای اشتراک در مورد به روزرسانی ها و ایجاد پیام های جدید بطور خودکار مطلع می شوند. این سیستم نسبت به سیستم هایی که مشتری ها بطور دوره ای در مورد آن نظرسنجی می شوند تا مشخص شود که آیا پیام های جدید در دسترس است یا خیر، بسیار کارآمدتر و مقیاس پذیر است. در این آموزش ، Apache Kafka 2.1.1 را به صورت ایمن روی

سرور Debian 10 نصب و پیکربندی می کنید ، سپس با تولید و استفاده از یک پیام Hello World راه اندازی خود را تست می کنید. سپس می توانید KafkaT را به صورت اختیاری برای نظارت بر کافکا نصب کنید و یک خوشه چند گره کافکا را تنظیم کنید. پیش نیازها برای دنبال کردن ، به موارد زیر نیاز خواهید داشت: یک

سرور Debian 10 با حداقل 4 گیگابایت رم و یک کاربر غیر ریشه با امتیازات سودو. در صورتی که کاربر غیر ریشه تنظیم نکرده اید، مراحل ذکر شده در راهنمای راه اندازی سرور اولیه برای Debian 10 را دنبال کنید. OpenJDK 11 روی

سرور شما نصب شده است. برای نصب این نسخه ، دستورالعمل های نصب Java را با Apt در Debian 10 در مورد نصب نسخه های خاص OpenJDK دنبال کنید. کافکا در جاوا نوشته شده است ، بنابراین به JVM نیاز دارد. توجه: نصب های بدون رم 4 گیگابایتی ممکن است باعث شود سرویس کافکا از کار بیفتد، در حالی که دستگاه مجازی جاوا (JVM) در هنگام راه اندازی یک استثناء Out Of Memory را به همراه داشته باشد. مرحله 1 - ایجاد کاربر برای کافکا از آنجا که کافکا می تواند درخواست ها را از طریق شبکه انجام دهد ، بهترین کار برای ایجاد یک کاربر اختصاصی برای آن است. در صورت به خطر افتادن

سرور کافکا ، این کار آسیب به دستگاه Debian شما را به حداقل می رساند. در این مرحله شما کاربر اختصاصی کافکا را ایجاد خواهید کرد. به عنوان کاربر sudo غیر ریشه خود وارد شوید ، با دستور useradd کاربری بنام kafka بسازید: sudo useradd kafka -m فلگ -m تضمین می کند که یک هوم دیرکتوری برای کاربر ایجاد می شود. این هوم دیرکتوری، / home / kafka ، بعداً به عنوان دیرکتوری فضای کاری شما برای اجرای دستورات عمل خواهد کرد. رمز عبور را با استفاده از passwd تنظیم کنید: sudo passwd kafka رمز عبوری را که می خواهید برای این کاربر استفاده کنید وارد کنید. در مرحله بعدی ، کاربر کافکا را با دستور adduser به گروه سودو اضافه کنید ، تا امتیازات لازم برای نصب وابستگی کافکا را داشته باشد: sudo adduser kafka sudo کاربر kafka شما اکنون آماده است. با استفاده از su وارد این حساب شوید: su -l kafka اکنون که کاربر اختصاصی کافکا را ایجاد کرده اید ، می توانید به دانلود و استخراج باینری های کافکا بروید. مرحله 2 - دانلود و استخراج باینری های کافکا در این مرحله، باینری های کافکا را در پوشه های اختصاصی در دیرکتوری هوم کاربر kafka خود دانلود و اکسترکت می کنید. برای شروع ، دایرکتوری را در / home / kafka با نام Downloads برای ذخیره دانلودهای خود ایجاد کنید: mkdir ~/Downloads در مرحله بعدی، حلقه را با استفاده از apt-get نصب کنید تا بتوانید فایلهای از راه دور را دانلود کنید: sudo apt-get update && sudo apt-get install curl در صورت درخواست، Y را تایپ کنید تا دانلود curl را تأیید کنید. پس از نصب Curl ، از آن برای دانلود باینری های کافکا استفاده کنید: curl "https://archive.apache.org/dist/kafka/2.1.1/kafka_2.11-2.1.1.tgz" -o ~/Downloads/kafka.tgz دایرکتوری به نام kafka ایجاد کنید و به این فهرست تغییر دهید. این دایرکتوری پایه نصب کافکا خواهد بود: mkdir ~/kafka && cd ~/kafka با استفاده از دستور tar ، آرشیوی را که دانلود کرده اید استخراج کنید: tar -xvzf ~/Downloads/kafka.tgz --strip 1 شما فلگ --strip 1 را برای اطمینان از استخراج محتوای بایگانی در ~ / kafka / و نه در دیرکتوری دیگری در داخل آن ، مانند ~ / kafka / kafka_2.12-2.1.1 / مشخص کرده اید. اکنون که باینری ها را با موفقیت دانلود و استخراج کرده اید ، می توانید پیکربندی کافکا را انجام دهید تا امکان حذف موضوع فراهم شود. مرحله 3 - پیکربندی

سرور کافکا رفتار پیش فرض کافکا به ما اجازه نمی دهد تا عنوان، دسته بندی، گروه یا نام فید را برای انتشار پیام ها حذف کنیم. برای تغییر این، پرونده پیکربندی را ویرایش می کنید. گزینه های پیکربندی کافکا در server.properties مشخص شده است. این پرونده را با nano یا ویرایشگر مورد علاقه خود باز کنید: nano ~/kafka/config/server.properties بیایید تنظیماتی را اضافه کنیم که به ما امکان حذف عناوین کافکا را می دهد. خط هایلایت شده زیر را در زیر فایل اضافه کنید: ~/kafka/config/server.properties . group.initial.rebalance.delay.ms delete.topic.enable = true فایل را ذخیره کنید و از nano خارج شوید. اکنون که Kafka را پیکربندی کرده اید، می توانید برای راه اندازی و فعال کردن کافکا در هنگام راه اندازی فایل های واحد systemed ایجاد کنید. مرحله 4 - ایجاد فایلهای واحد سیستمی و راه اندازی

سرور کافکا در این بخش فایلهای واحد سیستمی برای سرویس کافکا ایجاد می کنید. این به شما کمک می کند تا خدمات متداول مانند شروع، متوقف کردن و راه اندازی مجدد کافکا را به روشی سازگار با سایر سرویس های لینوکس انجام دهید. ZooKeeper سرویسی است که کافکا برای مدیریت وضعیت و تنظیمات خوشه ای از آن استفاده می کند. معمولاً در سیستم های توزیع شده به عنوان یک جزء اساسی مورد استفاده قرار می گیرد. در این آموزش از Zookeeper برای مدیریت این جنبه های کافکا استفاده خواهید کرد. اگر تمایل دارید اطلاعات بیشتری در مورد آن بدانید ، به مطالب ZooKeeper رسمی ما مراجعه کنید. ابتدا فایل واحد را برای zookeeper ایجاد کنید: sudo nano /etc/systemd/system/zookeeper.service تعریف واحد زیر را در پرونده وارد کنید: /etc/systemd/system/zookeeper.service [Unit] Requires=network.target remote-fs.target After=network.target remote-fs.target [Service] Type=simple User=kafka ExecStart=/home/kafka/kafka/bin/zookeeper-server-start.sh /home/kafka/kafka/config/zookeeper.properties ExecStop=/home/kafka/kafka/bin/zookeeper-server-stop.sh Restart=on-abnormal [Install] WantedBy=multi-user.target بخش [Unit] مشخص می کند که ZooKeeper به شبکه نیاز دارد و سیستم فایل قبل از شروع آن آماده است. در بخش [Service] مشخص شده است که systemd برای شروع و متوقف کردن سرویس باید از پرونده های zookeeper-server-start.sh و zookeeper-server-stop.sh استفاده کند. همچنین مشخص می کند در صورت خارج شدن غیرطبیعی ، ZooKeeper باید به طور خودکار مجدداً راه اندازی شود. در مرحله بعد، فایل سرویس systemd را برای kafka ایجاد کنید: sudo nano /etc/systemd/system/kafka.service تعریف واحد زیر را در پرونده وارد کنید: /etc/systemd/system/kafka.service [Unit] Requires=zookeeper.service After=zookeeper.service [Service] Type=simple User=kafka ExecStart=/bin/sh -c '/home/kafka/kafka/bin/kafka-server-start.sh /home/kafka/kafka/config/server.properties > /home/kafka/kafka/kafka.log 2>&1' ExecStop=/home/kafka/kafka/bin/kafka-server-stop.sh Restart=on-abnormal [Install] WantedBy=multi-user.target بخش [Unit] مشخص می کند که این فایل واحد به zookeeper.service بستگی دارد. این امر اطمینان می دهد که با شروع سرویس کافکا ، zookeeper به طور خودکار شروع می شود. در بخش [Service] مشخص شده است که systemd باید برای شروع و توقف سرویس از فایلهای پوسته kafka-server-start.sh و kafka-server-stop.sh استفاده کند. همچنین مشخص می کند در صورت خارج شدن غیر عادی ، کافکا باید به طور خودکار مجدداً راه اندازی شود. اکنون که واحدها تعریف شده اند ، کافکا را با دستور زیر شروع کنید: sudo systemctl start kafka برای اطمینان از شروع موفقیت آمیز

سرور ، گزارش های ژورنال را برای واحد kafka بررسی کنید: sudo journalctl -u kafka خروجی مشابه موارد زیر را مشاهده خواهید کرد: Mar 23 13:31:48 kafka systemd[1]: Started kafka.service. اکنون یک

سرور کافکا روی درگاه 9092 دارید که درگاه پیش فرض برای کافکا است. شما سرویس kafka را شروع کرده اید ، اما اگر می خواهید

سرور خود را دوباره راه اندازی کنید ، هنوز به طور خودکار شروع نمی شود. برای فعال کردن kafka در بوت سرور ، این

سرور را اجرا کنید: sudo systemctl enable kafka اکنون که سرویس ها را شروع و فعال کرده اید ، زمان آن رسیده است که نصب را بررسی کنید. مرحله 5 - تست نصب بیایید پیام Hello World را منتشر و استفاده کنیم تا مطمئن شویم که

سرور کافکا به درستی رفتار می کند. انتشار پیام در کافکا به موارد زیر بستگی دارد: تهیه کننده، که امکان انتشار سوابق و داده ها به عناوین را فراهم می کند. مصرف کننده، که پیام ها و داده ها را از عناوین می خواند. ابتدا با تایپ کردن دستور زیر عنوانی به نام TutorialTopic ایجاد کنید: ~/kafka/bin/kafka-topics.sh --create --zookeeper localhost:2181 --replication-factor 1 --partitions 1 --topic TutorialTopic می توانید با استفاده از اسکریپت kafka-console-producer.sh یک تهیه کننده از خط فرمان ایجاد کنید. این تهیه کننده نام میزبان ، پورت و نام عنوان

سرور کافکا را به عنوان آرگومان میشناسد. رشته Hello, World را با تایپ کردن دستور زیر برای عنوان TutorialTopic منتشر کنید: echo "Hello, World" | ~/kafka/bin/kafka-console-producer.sh --broker-list localhost:9092 --topic TutorialTopic > /dev/null فلگ - broker-list لیست کارگزاران پیام برای ارسال پیام به آن ها که در این مورد localhost: 9092 است را تعیین می کند. –topic موضوع را به عنوان TutorialTopic تعیین می کند. در مرحله بعد ، می توانید با استفاده از اسکریپت kafka-console-consumer.sh یک مصرف کننده کافکا ایجاد کنید. انتظار می رود نام میزبان و پورت

سرور ZooKeeper و نام تاپیک به عنوان آرگومان باشد. دستور زیر از پیام های TutorialTopic استفاده می کند. توجه داشته باشید که از فلگ --from-beginning استفاده کنید که امکان استفاده از پیام هایی را که قبل از شروع مصرف کننده منتشر شده است ، فراهم کند: ~/kafka/bin/kafka-console-consumer.sh --bootstrap-server `localhost:9092` --topic TutorialTopic --from-beginning --bootstrap-server لیستی از ورودی ها به خوشه کافکا را ارائه می دهد. در این حالت ، از localhost استفاده می کنید: 9092. Hello, World را در ترمینال خود مشاهده خواهید کرد: خروجی Hello, World این اسکریپت همچنان اجرا می شود و منتظر انتشار پیام های بیشتری برای موضوع خواهد بود. با خیال راحت یک ترمینال جدید باز کنید و یک تهیه کننده راه اندازی کنید تا چند پیام دیگر انتشار دهد. شما باید همه آنها را در خروجی مصرف کننده ببینید. اگر می خواهید در مورد نحوه استفاده از کافکا اطلاعات بیشتری کسب کنید ، به اطلاعات موجود در لینک کافکا رسمی مراجعه کنید. وقتی آزمایش انجام شد ، CTRL + C را فشار دهید تا اسکریپت مصرف کننده متوقف شود. اکنون که نصب را آزمایش کرده اید ، می توانید برای اجرای بهتر خوشه کافکا ، به نصب KafkaT بروید. مرحله 6 - نصب KafkaT (اختیاری) KafkaT ابزاری از Airbnb است که مشاهده جزئیات مربوط به خوشه کافکا و انجام برخی کارهای اجرایی از خط فرمان را برای شما آسانتر می کند. از آنجا که این یک Ruby gem است ، برای استفاده از آن به Ruby نیاز خواهید داشت. برای ساختن سایر gemها که به آن بستگی دارد ، به بسته build-essential نیز احتیاج خواهید داشت. آنها را با استفاده از apt نصب کنید: sudo apt install ruby ruby-dev build-essential اکنون می توانید KafkaT را با استفاده از دستور gem نصب کنید: sudo CFLAGS=-Wno-error=format-overflow gem install kafkat گزینه CFLAGS = -Wno-error = format-overflow هشدارهای فرمت بیش از حد را غیرفعال می کند و برای gem ZooKeeper ، که وابسته به KafkaT است ، لازم میباشد. KafkaT از .kafkatcfg به عنوان فایل پیکربندی برای تعیین نصب و ورود به فهرست

سرورهای کافکا استفاده می کند. همچنین باید دارای ورودی باشد که KafkaT را به عنوان مثال ZooKeeper به شما نشان دهد. یک فایل جدید با نام .kafkatcfg ایجاد کنید: nano ~/.kafkatcfg خطوط زیر را اضافه کنید تا اطلاعات لازم در مورد

سرور کافکا و مثال Zookeeper خود را مشخص کنید: ~/.kafkatcfg { "kafka_path": "~/kafka", "log_path": "/tmp/kafka-logs", "zk_path": "localhost:2181" } اکنون آماده استفاده از کافکا هستید. برای شروع ، در اینجا نحوه استفاده از آن برای مشاهده جزئیات مربوط به همه پارتیشن های کافکا آورده شده است: kafkat partitions خروجی زیر را مشاهده خواهید کرد: Output Topic Partition Leader Replicas ISRs TutorialTopic 0 0 [0] [0] __consumer_offsets 0 0 [0] [0] . این خروجی TutorialTopic و همچنین __consumer_offsets یک عنوان داخلی که توسط کافکا برای ذخیره اطلاعات مربوط به مشتری استفاده می شود ، نشان می دهد. با خیال راحت می توانید خطوط شروع شده با __consumer_offsets را نادیده بگیرید. برای کسب اطلاعات بیشتر در مورد KafkaT ، به منبع GitHub آن مراجعه کنید. اکنون که KafkaT را نصب کردید ، می توانید Kafka را به صورت اختیاری بر روی خوشه ای از

سرورهای Debian 10 تنظیم کنید تا یک خوشه چند گره ایجاد شود. مرحله 7 - تنظیم یک خوشه چند گره (اختیاری) اگر می خواهید با استفاده از

سرورهای Debian 10 بیشتر ، یک خوشه چند کاره ایجاد کنید، مرحله 1 ، مرحله 4 و مرحله 5 را روی هر یک از ماشین های جدید تکرار کنید. علاوه بر این، برای پرونده های ~ / kafka / config / server.properties تغییرات زیر را انجام دهید: مقدار ویژگی broker.id را طوری تغییر دهید که در کل خوشه بی نظیر باشد. این ویژگی به طور منحصر به فرد هر

سرور موجود در خوشه را مشخص می کند و می تواند هر رشته ای را به عنوان مقدار آن داشته باشد. به عنوان مثال ، "server1" ، "server2" و غیره ، به عنوان شناساگر مفید خواهند بود. مقدار ویژگی zookeeper.connect را به گونه ای تغییر دهید که همه گره ها به همان مثال ZooKeeper اشاره کنند. این ویژگی آدرس نمونه ZooKeeper را مشخص می کند و از قالب <HOSTNAME/IP_ADDRESS>:<PORT> پیروی می کند. برای این آموزش ، شما از your_first_server_IP: 2181 استفاده خواهید کرد و your_first_server_IP را با آدرس IP

سرور Debian 10 که قبلاً تنظیم کرده اید جایگزین کنید. اگر می خواهید چندین نمونه ZooKeeper برای خوشه خود داشته باشید ، مقدار ویژگی zookeeper.connect در هر گره باید یک رشته یکسان با کاما باشد که در آن آدرس های IP و شماره پورت همه موارد ZooKeeper را نشان می دهد. توجه: اگر یک فایروال دارید که روی

سرور Debian 10 با نصب Zookeeper فعال شده است ، حتما پورت 2181 را باز کنید تا اجازه ورود از سایر گره های خوشه را دریافت کنید. مرحله 8 - محدود کردن کاربر کافکا اکنون که تمام مراحل نصب انجام شده است ، می توانید امتیازات ادمین کاربر kafka را حذف کنید. قبل از انجام این کار ، مانند هر کاربر سودو غیر ریشه خارج شوید و دوباره وارد سیستم شوید. اگر هنوز همان بخش شل را اجرا می کنید که این آموزش را با آن شروع کرده اید ، فقط exit تایپ کنید. کاربر کافکا را از گروه سودو حذف کنید: sudo deluser kafka sudo برای بهبود بیشتر امنیت

سرور کافکا ، رمزعبور کاربر kafka را با استفاده از دستور passwd قفل کنید. این اطمینان می دهد که هیچ کس نمی تواند با استفاده از این حساب به طور مستقیم وارد

سرور شود: sudo passwd kafka -l در این مرحله فقط کاربر root یا یک کاربر sudo می توانند با وارد کردن دستور زیر به عنوان kafka وارد شوند: sudo su - kafka در آینده اگر می خواهید قفل آن را باز کنید ، از passwd با گزینه -u استفاده کنید: sudo passwd kafka -u شما اکنون با موفقیت امتیازات ادمین کاربری kafka را محدود کرده اید. نتیجه اکنون Apache Kafka به طور ایمن روی

سرور Debian شما اجرا شده است. شما می توانید با ایجاد تهیه کنندگان و مصرف کنندگان از بین مشتری های کافکا ، که برای اکثر زبان های برنامه نویسی در دسترس است، از آن در پروژه های خود استفاده کنید. برای کسب اطلاعات بیشتر در مورد کافکا، همچنین می توانید با آپاچی کافکا م کنید.


آخرین ارسال ها

آخرین جستجو ها