Tux


Rough notes on setting up an Ubuntu server with docker

Static IP

First, we set up a static IP to our Ubuntu server using netplan. To do so, we created the following file:

/etc/netplan/01-netcfg.yaml

using the following command

sudo nano /etc/netplan/01-netcfg.yaml;

and added the following content to it:

# This file describes the network interfaces available on your system
# For more information, see netplan(5).
network:
  version: 2
  renderer: networkd
  ethernets:
    enp3s0f0:
      dhcp4: no
      addresses: [192.168.45.13/24]
      gateway4: 192.168.45.1
      nameservers:
          addresses: [1.1.1.1,8.8.8.8]

To apply the changes, we executed the following:

sudo netplan apply;

Update everything (the operating system and all packages)

Usually, it is a good idea to update your system before making significant changes to it:

sudo apt update -y; sudo apt upgrade -y; sudo apt autoremove -y;

Install docker

In this setup we did not use the docker version that is available on the Ubuntu repositories, we went for the official ones from docker.com. To install it, we used the following commands:

sudo apt-get install ca-certificates curl gnupg lsb-release;
curl -fsSL https://download.docker.com/linux/ubuntu/gpg | sudo gpg --dearmor -o /usr/share/keyrings/docker-archive-keyring.gpg;
echo   "deb [arch=$(dpkg --print-architecture) signed-by=/usr/share/keyrings/docker-archive-keyring.gpg] https://download.docker.com/linux/ubuntu $(lsb_release -cs) stable" | sudo tee /etc/apt/sources.list.d/docker.list > /dev/null;
sudo apt-get update;
sudo apt-get install docker-ce docker-ce-cli containerd.io;

Install docker-compose

Again, we installed the official docker-compose from github.com instead of the one available in the Ubuntu repositories. At the time that this post was created, version 1.29.2 was the recommended one:

sudo curl -L "https://github.com/docker/compose/releases/download/1.29.2/docker-compose-$(uname -s)-$(uname -m)" -o /usr/local/bin/docker-compose;
sudo chmod +x /usr/local/bin/docker-compose;

Increase network pool for docker daemon

To handle the following problem:

ERROR: could not find an available, non-overlapping IPv4 address pool among the defaults to assign to the network

We created the following file,

/etc/docker/daemon.json

using the command:

sudo nano /etc/docker/daemon.json;

and added the following content to it:

{
  "default-address-pools": [
    {
      "base": "172.80.0.0/16",
      "size": 24
    },
    {
      "base": "172.90.0.0/16",
      "size": 24
    }
  ]
}

We executed the following command to restart the docker daemon and get the network changes applied:

sudo systemctl restart docker;

Gave access to our user to manage docker

We added our user to the docker group so that we could manage the docker daemon without sudo rights.

sudo usermod -aG docker $USER;

Deploying

After we copied everything in place, we executed the following command to create our containers and start them with the appropriate networks and volumes:

export COMPOSE_HTTP_TIMEOUT=120;
docker-compose up -d --remove-orphans;

We had to increase the timeout as we were getting the following error:

ERROR: for container_a  UnixHTTPConnectionPool(host='localhost', port=None): Read timed out. (read timeout=60)
ERROR: An HTTP request took too long to complete. Retry with --verbose to obtain debug information.
If you encounter this issue regularly because of slow network conditions, consider setting COMPOSE_HTTP_TIMEOUT to a higher value (current value: 60).

Stopping all containers using a filter on the name

docker container stop $(docker container ls -q --filter name=_web);

The above command will find all containers whose names contain _web and stop them. That command is actually two commands where one is nested inside the other.

#This command finds all containers that their name contains _web, using the -q parameter, we only get back the container ID and not all information about them.
docker container ls -q --filter name=_web;
#The second command takes as input the output of the nested command and stops all containers that are returned.
docker container stop $(docker container ls -q --filter name=_web);

Free dial-in to WebEx

The following video demonstrates how to dial into a WebEx online meeting without using the WebEx client.

In some countries, there are no toll-free numbers for people to call. Not having toll-free numbers can be problematic for people with issues with their connection or the WebEx client is not working for them.

From our experience, we noticed that there is usually a US-based toll-free number available for most WebEx meetings (a cheaper package for the owner, maybe). Considering some people’s problems and the US-based toll-free number, we propose dialing in to the meeting via Viber.

Viber offers a service called “Viber Out.” This service allows you to phone call almost anywhere globally as if you were performing a local call (so you get lower rates).

Our proposal is the following since WebEx offers toll-free numbers for the US, then use “Viber Out” to perform that free call and join your meeting. To the best of our knowledge, Viber should not charge you as their partners should not charge them for this call.

https://www.youtube.com/watch?v=ZlQMk2lE9Do

Hope it helps; it helped us!

We cannot be sure if Viber will change its policy in the future, so be sure to check where and when you use your financial tools.


Το Γυμνάσιο – Λύκειο ΟΛΥΜΠΙΟΝ συμμετέχει και φέτος στο πρόγραμμα Σχολείο Πρεσβευτής του Ευρωπαϊκού Κοινοβουλίου

Το Γυμνάσιο – Λύκειο ΟΛΥΜΠΙΟΝ ανακοινώνει με ιδιαίτερη χαρά ότι συμμετέχει και φέτος στο πρόγραμμα σχολείο Πρεσβευτής του Ευρωπαϊκού Κοινοβουλίου. Πρόκειται για ένα εξαιρετικό πρόγραμμα το οποίο δίνει την ευκαιρία στους μαθητές και μαθήτριες της Β’ Λυκείου, κυρίως, να γνωρίσουν το Ευρωπαϊκό Κοινοβούλιο και τον ρόλο του, προσφέροντας τους ερεθίσματα και σημαντικότατες εμπειρίες. Οι μαθητές και μαθήτριες του σχολείου μας, στους οποίους δίδεται ο όρος Δόκιμοι Πρεσβευτές, οργάνωσαν και έλαβαν μέρος σε ποικίλες δράσεις στα πλαίσια του προγράμματος, το οποίο οδεύει προς την ολοκλήρωσή του.

Μερικές από τις σημαντικότερες δραστηριότητες του προγράμματος ήταν ο «Μήνας Ευρωγνωσίας», η επίσκεψή εκπροσώπου του Ευρωπαϊκού Κοινοβουλίου κ. Νεκτάριου Νικολαΐδη στο σχολείο μας, καθώς και η συμμετοχή των Δόκιμων Πρεσβευτών στην «Ανοικτή Συζήτηση στα Πλαίσια της Διάσκεψης για το Μέλλον της Ευρώπης». Επίσης, αναμένουμε την προγραμματισμένη επίσκεψή του Ευρωβουλευτή κ. Κώστα Μαυρίδη.

Κατά τον «Μήνα Ευρωγνωσίας» οι μαθητές της Β’ Λυκείου μελέτησαν και συζήτησαν υλικό σχετικό με την Ε.Ε. και το Ε.Κ., με τη βοήθεια των καθηγητών τους. Η συγκεκριμένη δραστηριότητα ολοκληρώθηκε με τη δημιουργία EU Info Point στο σχολείο και την επίσκεψη του κ. Νεκτάριου Νικολαΐδη. Η ευρωπαϊκή ατμόσφαιρα που δημιουργήθηκε καθώς και η ενεργός εμπλοκή των παιδιών στην παρουσίαση, συνέβαλε στο να εμπλουτίσουν τα παιδιά τις ευρωγνώσεις τους και να επιδείξουν θερμότερο ενδιαφέρον για ευρωπαϊκά θέματα.

Στη συνέχεια, οι Δόκιμοι Πρεσβευτές του προγράμματος είχαν τη σημαντικότατη ευκαιρία να συμμετέχουν στην «Ανοικτή Συζήτηση στα Πλαίσια της Διάσκεψης για το Μέλλον της Ευρώπης», στην οποία συμμετείχαν και ο Υπουργός Παιδείας, Πολιτισμού, Αθλητισμού και Νεολαίας της Κύπρου, η Επικεφαλής της Αντιπροσωπείας της Ευρωπαϊκής Επιτροπής και ο Επικεφαλής του Γραφείου του Ευρωπαϊκού Κοινοβουλίου στην Κύπρο, όπως επίσης και οι πρέσβειρες της Γαλλίας, της Γερμανίας και της Ολλανδίας. Οι μαθητές μας παρουσίασαν τη θέση τους και συγκεκριμένα ερωτήματα αναφορικά με τις θεματικές Αξίες και δικαιώματα, κράτος δικαίου, ασφάλεια και Ευρωπαϊκή Δημοκρατία.

Αναμφίβολα, το πρόγραμμα προσφέρει εμπειρίες ζωής σε όλους τους συμμετέχοντες. Οι μαθητές και οι μαθήτριες του σχολείου μας έχουν πάρει εφόδια τα οποία θα επηρεάσουν θετικότατα την ανάπτυξη που θα έχουν ως Ευρωπαίοι πολίτες, και όχι μόνο. Θερμά συγχαρητήρια στους μαθητές του σχολείου μας, αλλά και σε αυτούς των υπόλοιπων σχολείων. Ευχαριστίες αξίζουν και στις εκπαιδευτικούς του σχολείου μας κ. Σταύρη Παναγιώτου και κ. Φίλια Γεωργίου για την καθοδήγηση και τη στήριξη των μαθητών.


ERROR: for container_a UnixHTTPConnectionPool(host=’localhost’, port=None): Read timed out. (read timeout=60)

There is this docker server that we have access to, which probably due to lousy planning, we put way too many containers on it. The server does not have SSD disks, and for that reason, whenever there are too many IO operations, it becomes unresponsive. When we mass update all containers by updating the images using the following command and then issuing a fresh docker-compose, we get a lot of time-out errors.

The commands we use to update the images and recreate our containers using the new images are the following:
(Please note that these commands need to execute from the folder where the file docker-compose.yml resides)

#Update all docker images that have the 'latest' tag
docker images --format "{{.Repository}}:{{.Tag}}" | grep ':latest' | xargs -L1 docker pull;
#Rebuild all containers using the new images.
docker-compose up -d;

After executing the second command, we often get many copies of the following error:

ERROR: for container_a  UnixHTTPConnectionPool(host='localhost', port=None): Read timed out. (read timeout=60)

This error indicates that the recreate command was waiting for too long for the docker daemon to respond with no success. At the end of the output, we can see that it was waiting for 60 seconds.

At the end of the output, we get the following information and advice:

ERROR: An HTTP request took too long to complete. Retry with --verbose to obtain debug information.
If you encounter this issue regularly because of slow network conditions, consider setting COMPOSE_HTTP_TIMEOUT to a higher value (current value: 60).

Following the advice, we used the following command to overwrite the value of the COMPOSE_HTTP_TIMEOUT variable to a more significant number.

#Increase timeout period to 120 seconds.
export COMPOSE_HTTP_TIMEOUT=120;
#Rebuild all containers using the new images.
docker-compose up -d;

Doing so, we were able to rebuild all containers without reissuing many times the up command.

Sidenote

This server really does have a lot of containers, we had to create the file /etc/docker/daemon.json so that we would have enough network addressing space to handle all the bridges and sub-networks.

The contents of /etc/docker/daemon.json are:

{
  "default-address-pools": [
    {
      "base": "172.80.0.0/16",
      "size": 24
    },
    {
      "base": "172.90.0.0/16",
      "size": 24
    }
  ]
}

The above configuration solved the following problem for us:

ERROR: could not find an available, non-overlapping IPv4 address pool among the defaults to assign to the network