]> Git — Sourcephile - sourcephile-txt.git/blob - ddc/ddc8-logiciellerie-une_infra.md
ddc8: ZFS recordsize
[sourcephile-txt.git] / ddc / ddc8-logiciellerie-une_infra.md
1 # Une première infrastructure informatique pour Sourcephile
2 - Demande de Critiques: 8
3 - De: Julien Moutinho (julm)
4 - À: Sourcephile
5 - Phase: Test
6 - Révision: 4 (2020-01-22)
7 - Licence: Creative Commons BY-SA
8
9 # Bilan approximatif
10 ## Mentions possibles
11 - R: « À rejeter »
12 - C: « À clarifier »
13 - A: « À améliorer »
14 - T: « À tester »
15 - G: « À garder »
16
17 ## Analyses des préoccupations
18 ### [G] Pour l’indépendance
19 #### [G] Concernant les charges
20 - [G] julm: on est sur une dépense de ~300€ de matériel (~100€ de plus s’il n’y avait pas le réemploi d’un SSD) pour une espérance de fonctionnement et d’usage >5ans, et un récurrent de ~60€/an pour l’hébergement. C’est un prix très correct pour ce que c’est.
21 #### [T] Concernant l’autonomie
22 - [T] julm: on a la main sur le matériel, le logiciel, mais par tellement sur l’hébergement (toutefois 15km, ça reste à portée de vélo).
23 #### [C] Concernant les produits
24 - [C] julm: aucun service non-lié à la production n’est proposé aux membres.
25 ### [T] Pour la science
26 - [T] julm: on peut mettre du NixOS, mais ce n’est pas une machine avec beaucoup de CPU et de RAM, mais ça devrait largement suffire et me dépanner tant que je n’ai pas d’élec @home.
27 ### [T] Pour la production
28 - [T] julm: la machine peut suffire pour commencer, l’hébergement aussi mais peut rapidement être limitant (ce n’est qu’une VDSL2+). Côté sécurité on est en open-source, mais que partiellement en matériel ouvert. Mutualiser pleins de services sur une seule machine n’est pas l'idéal mais un cloisonnement LXC (sans virtualisation) devrait suffire puisque tous les services seront sous GNU/Linux et contrôlés par nous. L’hébergement est semi-professionnel, sécurité raisonnable vue les enjeux. Côté maintenance on peut mettre du NixOS ce qui me simplifiera la tâche. L’hébergeur n’offre pas (encore) de seconde connexion via le port série et n'est que semi-professionnel, par contre il est proche.
29 ### [A] Pour l’essaimage
30 - [A] julm: on est en logiciel libre, mais que partiellement en matériel ouvert. Deux raisons bloquantes à cela : le manque de support de NixOS (quid de Guix ?) et plus gravement de Haskell pour les architectures ARM.
31 ### [A] Pour la coopération
32 - [A] julm: les machines sont fabriquées à l'autre bout de la planète dans des conditions sociales probablement déplorables.
33 ### [A] Pour l’environnement
34 - [A] julm: c’est une machine très basse consommation, mais c’est quand même une consommation.
35
36
37 # Explications
38
39 ## Motivations
40 ### S'émanciper d'autogeree.net
41 Les logiciels que j'écris sont actuellement hébergés sur `chomsky.autogeree.net`, une machine virtuelle (VM) relativement modeste que me fournie Grésille depuis 2011 (en contre-partie d'un Dell R210 surnommé « chomsky » et acquis dans l'enthousiasme naïf de l'essaimage de FDN, puis resurnommé « rouf » par Grenode). Cette VM m'a longtemps servi de bac à sable pour jouer à l'adminsys, et sert encore à un copain et moi-même pour avoir du mél et de l'IRC.
42
43 `chomsky` est une Debian dans une machine virtuelle Xen (1 CPU, 750Mo de RAM, 50Go de stockage HDD), dans une machine hébergée professionnellement en datacenter à Grenoble. Cette machine est actuellement reliée à l'Internet par une autre infrastructure de Grenode à Lyon (au Netcenter via l'association Rézopole).
44 `chomsky` n’a pas vraiment les ressources d’une machine de développement (nixpkgs c’est déjà 10Go de stockage, stack 5Go, et le REPL de GHC ou de PureScript c’est minimum 0.5Go de RAM).
45
46 autogeree.net ne peut donc plus assurer mes besoins, et je n’arrive pas à convaincre qui que ce soit de porter avec moi une énième tentative d’association, nommée « Sourcephile », mais il me faut assurer la continuation du développement des logiciels libres qui me tiennent à cœur, et par conséquent je choisis d’entreprendre unilatéralement ce qu’il faut pour cela : `mermet.sourcephile.fr`, nommée d’après feu Laurent Mermet.
47
48 ### S'émanciper de Debian
49 Depuis que je me suis mis à NixOS, je ne suis plus enthousiasmé par Debian. En tant que dev il est bien plus facile de faire et de partager de manière reproductible et récente des paquets NixOS que des paquets Debian (dans le cas de paquets Haskell tout du moins). Et en tant qu'adminsys il est bien plus facile de maîtriser ce qu'il se passe sur une NixOS que sur une Debian. Le seul avantage de Debian en ce qui me concerne c'est sa plus grande portabilité sur des architectures basse conso ou OSHW comme certaines ARM ou MIPS (en fait non, mon Yeeloong de Lemote a été volontairement rendu inutilisable par Debian). Mais ce n'est **certainement** qu'un avantage temporaire.
50 Pour approfondir ces raisons techniques, on peut voir par exemple les tutoriels francophones de Nokomprendo : https://nokomprendo.gitlab.io/
51
52 Cependant, il est **peu probable** que je puisse passer `chomsky` sous NixOS, car mon copain n’envisage pas de se mettre à NixOS, et puis c'est une opération risquée demandant une intervention délicate sur une machine hébergeant actuellement des services en production (essentiellement nos méls persos en MX n°1).
53
54 ## Objectif
55 L’objectif principal est de continuer d’habiter sur Internet, en assurant ce qu’autogeree.net ne peut plus assurer ou n’a jamais véritablement assuré.
56
57 ### Objectif minimal : infra de publication
58 Cet objectif adresse en priorité les besoins de diffusion au public du travail des membres contributeurs : dépôts des sources, dépôts des binaires, pages Web d'informations. Le public n'y a que des accès en lecture seule.
59
60 - Noms de domaine (nsd4 | unbound | knot)
61 - Shell distant SSH (openssh)
62 - Pare-feu (shorewall)
63 - Forge logicielle (gitolite, gitweb, nginx)
64 - Dépôts binaires (cachix, apt)
65 - Site Web de rendu des journaux de bord (nginx)
66 - Site Web de rendu des demandes de critiques (nginx)
67 - Site Web de rendu des documentations (nginx)
68 - Certificats X.509 pour du HTTPS (certbot, nginx)
69 - Clés de signature et d'authentification dédiées OpenPGP (gnupg, openpgp2ssh)
70 - Authentifications secondaires dédiées (nitrokey | yubikey | solokey)
71 - Monitoring (monit | nagios | prometheus)
72
73 ### Objectif modeste : infra d'équipement interne
74 Cet objectif adresse en priorité les besoins d'équipement des membres contributeurs : stockages sécurisés et connexions sécurisées. Le public n'y a aucun accès d'usage, mais peut avoir des accès en écriture ou lecture selon des interfaces restreintes et contrôlées.
75
76 - Adresses méls (postfix, dovecot2, rspamd)
77 - Listes méls internes (aliases postfix)
78 - Écriture collaborative en ligne en temps réel (gobby | etherpad-lite | prose)
79 - Messagerie instantanée (prosody | matrix)
80 - Chiffrement du stockage (ZFS, dm-crypt, dropbear)
81 - Gestion des accès (unix | openldap | intégré aux applications)
82 - Partages volumineux en ligne (nextcloud)
83 - Partages textuels jetables (pastebin)
84 - (optionnel) Calendriers en ligne (davical | nextcloud)
85 - (optionnel) VPN DNS (iodined)
86 - (optionnel) VPN (wireguard)
87 - (optionnel) Audioconf (mumble)
88 - (optionnel) Visioconf (jitsi)
89 - (optionnel) Partages binaires jetables (coquelicot)
90
91 ### Objectif honorable : infra de contribution publique
92 Cet objectif adresse en priorité les besoins de communication en ligne entre les membres contributeurs et le public : sites Web de présentation et réseaux sociaux en ligne.
93 - Rapports de bugs (gitlab | gitea)
94 - Messagerie instantanée (salon IRC type #sourcephile@irc.geeknode.net | prosody interne | serveur Jabber externe)
95 - GitLab
96 - Site Web des (futures) démonstrations (judgmentphile, docphile, ledgerphile, relotophile)
97 - Listes méls publiques (discourse)
98 - Forums publics (discourse)
99
100 ### Objectif ambitieux : infra de mise en commun
101 Cette objectif adresse en priorité les besoins de la mise en commun en ligne.
102
103 - (optionnel) Microblogging (mastodon | serveur externe)
104
105 ### Objectif maximal : infra de services
106
107
108 ## Études
109 ### Hébergement
110 #### PTT
111 PTT est une association qui tient un (tiers-)lieu à Tarnac en Corrèze.
112 Il est possible d’y héberger de petites machines à basse consommation pour 2€/mois (plus 3€/IPv4) (plus une cotisation de 10€ + prix-libre), dans une salle dédiée aux serveurs.
113 Tarnac est au milieu du plateau de Millevaches, autrement dit en périphérie d’Internet.
114 Le réseau est une VDSL2 fournie par Ilico/Grenode/Ielo-Liazo/Orange, soit environ 40Mbps descendant et 12Mpbs montant (mais pour l'ensemble de l'hébergement !).
115
116 #### Tetaneutral
117 Tetaneutral est une association à but non-lucratif basée à Toulouse.
118 Tetaneutral est bien établie et active dans le portage de la cause de l’Internet libre.
119 Il est possible d’y héberger de petites machines à basse consommation pour 5€ à 10€ par mois, dans une salle du squat artistique Mix'art Myrys :
120 http://tetaneutral.net/adherer/
121 Le réseau est une fibre optique directement reliée à centre de données Cogent voisin :
122 https://tetaneutral.net/historique/
123
124
125 ### Machines
126 #### APU2 de PCengines
127 L’APU2 est un routeur conçu par une entreprise suisse (PCengines) et fabriqué à Taïwan. Le CPU est un AMD, dont l'architecture « x86_64 » est officiellement supportée par GHC, NixOS et ses caches binaires. Ce n'est pas complètement en matériel ouvert car certains composants clés comme le CPU ne le sont pas, mais PCengines publie ce qu'elle fait elle pour sa part (schémas et code source des modifications à Coreboot).
128
129 PCengines a une renommée et une maturité certaine dans la conception de machines (ce n'est pas leur première), il ne s'agit donc pas de produits issus d'une random startup d'amateur.rices, ou autres personnes davantage préoccupées par le time-to-market plutôt que par le long-time-support. L’APU2 est explicitement vanté, et ses composants choisis, pour assurer sa disponibilité sur le « long-terme ».
130
131 L’APU2 est généralement utilisé comme routeur, mais peut aussi servir de petit (en terme de services peu gourmands côté serveur) serveur, voire de petit (en taille de stockage) « NAS » (Network Attached Storage), voire de petite (en puissance de calculs) machine de développement pour dépanner.
132
133 L’APU a plusieurs versions : APU2, APU3 et APU4. L'APU2 est annoncé comme celui consommant le moins : 10W max contre 12W max pour l’APU3 et l’APU4, et la version 4Go de RAM de l'APU2 a une NIC i210AT légèrement meilleure que la i211AT des autres. L’APU3 est optimisé pour faire de la 3G/LTE. Et l’APU4 a un quatrième port Ethernet, mais ne rentre pas dans l’enclosure RMT-CASE-S1 permettant de mettre des disques supplémentaires.
134
135 Ressources :
136 - https://pcengines.ch/howto.htm
137 - https://openwrt.org/toh/pcengines/apu2
138 - https://www.cs.cmu.edu/~davide/howto/apu4c4.html
139 https://blog.linuxserver.io/2016/12/17/review-pcengines-apu2-c4-prebuilt-by-linitx/#vpnperformance
140 - https://teklager.se/en/knowledge-base/
141
142 ##### Caractéristiques
143 - Processeur : AMD G series GX-412TC (Turbo Core), 4x 1GHz Jaguar core with 64 bit support
144 - Specs :
145 - http://www.cpu-world.com/CPUs/Puma/AMD-G-Series%20GX-412TC.html
146 - http://support.amd.com/TechDocs/52740_16h_Models_30h-3Fh_BKDG.pdf
147 - 170€HT, http://store.clemanis.com (PCE-APU2E4)
148 - 148€HT, https://teklager.se/en/products/router-components/pc-engines-apu2d4
149 - 128€HT, https://www.wispmax.com/pc-engines-apu2b4-system-board.html
150 - Coprocesseur : AMD CCP avec AES-NI
151 - https://openwrt.org/toh/pcengines/apu2#cryptographic_hardware
152 - Cache L1 : 32K data cache + 32K instruction cache per core
153 - Cache L2 : 2MB shared
154 - Mémoire : 1x 4Go DDR3-DRAM 1333Mhz ECC (soudée !)
155 - Stockage : Boot from SD card (built-in adapter, connected through USB), USB or m-SATA SSD. 1 SATA data + power connector
156 - Électricité : 12V DC. About 6 to 10W depending on CPU load. Recommend for at least 1.5A to provide margin for peripherals
157 - Extensions : 2 miniPCI express (one with SIM socket for 3G modem), LPC bus, GPIO header, optional I2C bus, COM2 (3.3V RXD/TXD)
158 - Réseau : 3x Gigabit Ethernet (Intel i210AT), 1 DB9 serial port (console)
159 - https://www.intel.com/content/dam/www/public/us/en/documents/faqs/ethernet-controller-i210-i211-faq.pdf
160 - the i210AT is better, as it has 4 transmit and 4 receive queues, where the i211AT only has 2/2
161 - Firmware : CoreBoot (build 20170228) open source system BIOS with support for iPXE and USB boot
162 - Enclosure :
163 - 35€HT, 245mm x 157mm x 39mm, espace pour 3 disques 2.5" (2 dedans, 1 dehors), http://store.clemanis.com (RMT-CASE-S1)
164 - 12€HT, 152,4mm x 152,4mm, aucun espace pour le moindre disque 2.5", https://teklager.se/en/products/router-components/pc-engines-apu-enclosure
165 - Refroidissement : conductive cooling from the CPU to the enclosure
166 - Conception : Suisse
167 - Fabrication : Taïwan
168
169 ##### Mémoire (RAM)
170 4GB de RAM ce n’est pas énorme, c'est trop peu pour une machine de dév (surtout si elle n'est pas dédiée) ou de build, mais pour un serveur hébergeant des services de base c'est pas mal. D’un point de vue sécurité, il me semble d'ailleurs préférable d'avoir plusieurs petites machines physiques distinctes qu’une grosse machine blindée hébergeant des machines virtuelles. Machines blindées qu'on ne trouvera d'ailleurs **probablement** pas de si tôt en matériel ouvert.
171 La RAM a de l’ECC (Error Correcton Code), supportée depuis peu dans le firmware de l’APU2.
172 La RAM est soudée donc il faudra malheureusement changer toute la carte mère si elle vient à avoir des défaillances (testables en 2 heures avec Memtest86++).
173
174 Le micrologiciel d’usine permet de faire un Memtest86+. Au préalable il faut installer deux dissipateurs de chaleur et la carte-mère dans le chassis, pour refroidir comme il faut le CPU. Dans une salle à vivre, la température affichée par Memtest86+ ne dépasse pas 52°C.
175
176 ZFS serait lent avec 2GiB de RAM, 4GiB sont recommandés pour des performances normales pour des tâches courantes : https://github.com/zfsonlinux/zfs/wiki/Debian-Buster-Root-on-ZFS
177
178 4Go de RAM permet de rester en 32 bits, mais ZFS recommande 64 bits : https://github.com/zfsonlinux/zfs/wiki/FAQ#32-bit-vs-64-bit-systems
179 Il faudra faire attention à bien configurer ZFS pour qu'il ne consomme qu'une part contrôlée de la RAM. Il est fort probable qu'activer de la déduplication ZFS soit trop gourmande en RAM : https://wiki.freebsd.org/ZFSTuningGuide#Deduplication
180
181 La mise-à-jour du micrologiciel peut se faire à distance avec quelque chose du genre :
182 > git clone https://github.com/3mdeb/3mdeb-secpack
183 > gpg --import 3mdeb-secpack/**/*.asc
184 > gpg --verify canaries/pcengines/canary-002-2019.txt{.sig.piotr-krol,}
185 > gpg --verify canaries/pcengines/canary-002-2019.txt{.sig.miczyg,}
186 > wget -c https://3mdeb.com/open-source-firmware/pcengines/apu2/apu2_v4.11.0.2{.rom,.SHA256{,.sig}}
187 > gpg --recv-keys 0x3B710228A4774C4FCB315876233D0487B3A7A83C
188 > gpg --verify apu2_v4.11.0.2.SHA256{.sig,}
189 > sha256sum --check apu2_v4.11.0.2.SHA256
190 > flashrom -w apu2_v4.11.0.2.rom -p internal
191 > setpci -s 18.0 6c.L=10:10 # Force cold reboot
192 > reboot
193
194 ##### Stockage
195 Il est possible de mettre facilement deux disques SSD avec un APU2 dans la RMT-CASE-S1 : un sur le port mSATA et un sur le port SATA. Les vis tenant les disques sont pénibles à mettre et peuvent tordre le chassis si trop serrés. Le port d'alimentation à 2 broches est un peu atypique et peut poser des problèmes (mauvaise connexion sur un modèle reçu par Franciliens). Globalement, le format de port mSATA est entrain d'être remplacé par le port M.2, ce qui pose la question de pouvoir trouver de bons SSD mSATA dans un futur proche, mais Clemanis vend un adaptateur mSATA-SATA laissant toujours la possibilité de n’utiliser que des disques SATA. Il est aussi possible de mettre une extension PCIe pour rajouter 4 ports SATA : https://pcengines.ch/howto.htm#add_on_cards
196 Il est également possible de mettre une carte SD, mais les cartes SD tendent à mourrir plus vite et sont plus lentes.
197
198 ##### Réseau
199 PCEngines note que :
200 > The throughput depends very much on the OS, Linux based distributions perform much better than BSD based. Under Linux forwarding packets without filtering etc. a throughput of about 900-950Mbps can be achieved. Under BSD based OS, like pfSense, OPNSense, etc the max. throughput is about 600-650Mbps.
201
202 Quelques commentaires signalent que l’APU2 sature à 45Mpbs avec OpenVPN en AES, OpenVPN ne pouvant utiliser qu'un seul coeur de CPU (single thread). L'APU2 aurait une horloge CPU trop lente et un cache L2 trop petit. Mais ici le VPN n'est pas un objectif.
203 - https://www.reddit.com/r/PFSENSE/comments/4nmuu4/my_pc_engines_apu2c4_experience/
204
205 ##### Maintenance
206 La présence d’un port série permet un accès de maintenance plus simple et plus sécurisé que de l’IPMI (qui est un second OS en parallèle).
207 Mais il faut que l’hébergement propose un accès secondaire via un port série, ce qui n’est plus usuel.
208
209 Câbles utiles :
210 - USB to serial port
211 - 17€HT, https://www.ldlc.com/fiche/PB00026389.html
212 - 11€HT, https://teklager.se/en/products/router-components/serial-to-usb-cable
213 - 20€HT, http://store.clemanis.com/en/cables/566-kit-usb-to-serial-db9-female-for-alix-apu-3700667301720.html
214 - null-modem "DB9" serial cable, 5€HT, https://www.ldlc.com/fiche/PB00170050.html
215
216 Pour se connecter :
217 > picocom -b 115200 -f h /dev/ttyUSB0
218
219 ##### Enclosure
220 Il existe de nombreuses enclosures, mais essentiellement deux modèles.
221 Les noires dissipent mieux la chaleur : https://openwrt.org/toh/pcengines/apu2
222 La RMT-CASE-S1 de Clemanis (pour APU2 ou APU3 seulement !) est 15€ plus chère que d’autres enclosures plus petites, mais permet de stocker deux disques 2.5" dans l'enclosure et un sur le dessus pour un total de 4 disques avec le mSATA, ou de mettre une extension : http://store.clemanis.com/en/cases/324-pc-engines-alix-2d22d32d13-apu1apu2-case-with-hdd-wifi-black-3700667301379.html
223
224 ### Stockage
225 #### SSD (Solid State Disk)
226 ##### Fiabilité
227 Bien que rendant le Gio plus cher à l'achat, utiliser du disque à état solide (SSD) est plus fiable, plus rapide et consomme moins que du disque mécanique : https://arstechnica.com/gadgets/2014/06/consumer-grade-ssds-actually-last-a-hell-of-a-long-time/
228 Tellement fiable qu'il ne semble pas raisonnable de répliquer en temps réel le disque mais juste de sauvegarder régulièrement ailleurs (zfs send) le disque. La réplication apporterait tout de même une tranquilité d'esprit importante. Surtout que les SSD pour particuliers n’ont généralement pas de condensateur interne contre les coupures de courant : https://insights.samsung.com/2016/03/22/power-loss-protection-how-ssds-are-protecting-data-integrity-white-paper/
229
230 ##### Capacité
231 Les SSD sont moins performant que les HDD en terme d'octet par euro.
232
233 ##### Vitesse
234 Les SSD sont bien plus rapide que les HDD.
235 Les SSD sont plus performant que les HDD en terme d'IOPS (Input/Output Per Second) par euro, non seulement sur des accès séquentiels mais surtout sur des accès aléatoires.
236 Les petits SSD ont une vitesse d'écriture plus lente que les gros SSD, dans la mesure où il y a plus de puces pour paralléliser les écritures (mais cela ne marche que pour des opérations parallélisables, cela ne s'applique à priori pas quand on a un seul processus) : https://www.tweaktown.com/reviews/5993/samsung-840-evo-128gb-msata-ssd-review/index.html
237 Ainsi un 128Go écrira séquentiellement à 320Mo/s (Kingston) ou 410Mo/s (Samsung). Mais un 250Go écrira séquentiellement à 500Mo/s (Kingston) ou 520Mo/s (Samsung).
238 En outre, côté ordinateur tous les connecteurs SATA ne sont pas créés égaux, le concepteur de la carte-mère peut mettre des connecteurs bons marchés mais peu performants, auquel cas pouvoir rajouter une carte SATA peut améliorer la situation.
239 Avec du SSD, de surcroît avec ZFS qui a son propre ordonnanceur, il est recommandé de mettre queue/scheduler=none.
240
241 Pour benchmarker :
242 > dd if=/dev/zero of=/path/to/disk/tempfile bs=1M count=1024 conv=fdatasync,notrunc status=progress
243 > fio --rw=write --direct=1 --iodepth=32 --ioengine=libaio --bs=1M --numjobs=4 --size=1G --group_reporting /path/to/disk/tempfile
244
245 ##### Endurance
246 Les SSD meurent bien plus rapidement que les HDD. Ils sont donc encore moins adaptés au stockage de long-terme.
247 Les fabricants de SSD annonce une espérance de vie en Terabytes Written (TBW) ou Drive Writes Per Day (DWPD).
248 Les disques fournissent des attributs SMART :
249 > smartctl -a /dev/sda
250
251 Il est important d'activer le TRIM du système de fichier pour que l'effacement ne consomme pas les ressources du SSD. ZFS supporte cela depuis peu.
252
253 Après plus de 5 ans d’usage laptop relativement intensif, mon SSD Samsung 128G affiche encore 75% de santé.
254
255 ##### Cache
256 Réserver une partie du SSD pour le swap est utile, notamment pour faire des tmpfs.
257 Mettre le swap dans ZFS semble le plus propre mais il existe encore un bug connu sévère qui le déconseille : https://github.com/zfsonlinux/zfs/issues/7734
258 Il ne servirait à rien de mettre le swap dans le RAID, il suffit juste de mettre le swap dans un LUKS dédié pour le chiffer (avec une nouvelle clé éphémère à chaque boot) et d’ajouter les devices déchiffrés à la liste des swaps gérés par le noyau Linux.
259
260 Benchmark :
261 > stress --vm 10 --vm-keep --vm-bytes 512M
262
263 Configuration du noyau Linux :
264 > vm.swappiness = 10
265
266 ##### Secteurs
267 Si un SSD 4KB est utilisé pour le boot, un coreboot supportant UEFI devra être installé car GRUB ne supportera pas BIOS pour les disques 4KB : http://savannah.gnu.org/bugs/?46700
268 La taille physique des secteurs est donnée par fdisk -l ou /sys/block/sd*/queue/physical_block_size
269
270 ##### Modèles
271 - https://www.fnac.com/mp37714266/Transcend-ts128gmsa230s-ssd-interne-msata-iii-128-go-sata-iii-6-gbps-3d-tlc/w-4
272 - https://www.ldlc.com/fiche/PB00253086.html
273
274 #### ZFS
275 Bien que je n’ai aucune expérience avec (ZFS n’est pas exotique, mais n’est pas non plus le défaut sous Debian), je choisis d’utiliser ZFS plutôt que le stack RAID+LUKS+LVM+ext4+rsync que je connais bien, car il me semble que l'approche intégrée de ZFS permet une configuration moins complexe, plus granulaire, plus évolutive, tout aussi mature, plus fiable contre la corruption des disques, et plus sécurisée du point de vue des sauvegardes.
276 ZFS est mature mais requiert de l’attention et de l’expertise, dans le cas contraire cela peut amener à de mauvaises performances, voire à de la perte de données.
277 ZFS a une multitude de fonctionnalités qui questionne de premier abord par rapport à la philosophie Unix de faire une seule chose mais de le faire bien. Il y a surement de très bonnes raisons de gérer ces fonctionnalités de manière intégrée, en tout cas la granularité et flexibilité que cela permet sont très appréciables quand on ne sait pas trop comment nos besoins vont évoluer.
278 ZFS a été premièrement pensé pour protéger les données de corruptions, en considérant que les disques conspirent pour perdre les données.
279 ZFS bénéficierait du travail d’environ 77 personnes par an, ce qui donne l’impression d’un développement aussi éclaté qu’actif : https://www.percona.com/blog/2017/11/15/zfs-from-a-mysql-perspective/
280 ZFS aurait une taille de son code source équivalente à 10 fois celle d’EXT4, mais ZFS remplace aussi MD, LVM, dm-crypt, …
281 ZFS ne peut légalement pas être intégré directement au noyau Linux mais cela est bien géré par NixOS.
282
283 Quelques fonctionnalités / concepts de ZFS (mais voir surtout les man zfs(8) et zpool(8))
284 - CoW (copy-on-write) : consiste à ne pas écraser un enregistrement lorsqu'il y a besoin de le modifier, mais d'écrire un nouvel enregistrement, de changer des pointeurs et de laisser le ramasse-miette (garbage-collector) de ZFS libérer l’ancien si il n’est plus référencé. Cela permet de garantir la cohérence des données sur les disques, tout en supprimant le besoin d'un journal ou de faire des fsck.
285 - Pool storage (hot add disks) : pas besoin de décider à l'avance de la taille de partitions ou de les redimensionner.
286 - ZIL (ZFS Intent Log) : cache des écritures synchrones. Utile lorsqu'il y a beaucoup d’écriture synchrones ou pour servir des fichiers qui changent fréquemment.
287 - SLOG (Separate Intent Log) : ZIL séparé sur un autre disque (de préférence répliqué par RAID avec write-back, car le perdre serait dramatique), généralement de quelques Gio, rapide pour les écriture séquentielles et les fsync().
288 - ARC (Adjustable Replacement Cache)/ : cache en RAM auto-ajusté entre MRU/LRU et MFU/LFU. Cache ce qui a été le plus récemment utilisé (MRU) et le plus fréquemment utilisé (MFU).
289 - L2ARC (Level 2 ARC) : cache de lecture optionnel sur disque (SSD, pour être utile) qui stocke les données balayées de l’ARC. Le contenu du L2ARC est référencé dans l’ARC et occupe donc de la RAM (~25MB d’ARC par GB de L2ARC). Par conséquent utiliser un L2ARC dans un système qui n’a pas une quantité de RAM suffisante nuit aux performances en imposant une pression sur l’ARC : les données qui auraient pu être servies depuis la RAM de l’ARC devront maintenant être servies depuis le SSD du L2ARC. Un système avec moins de 8Gio de RAM n’a pas besoin de L2ARC. jgreco : « Do not add L2ARC to an 8GB system. Period. Probably not to 16 either. Maybe at 24 or 32GB, but you have to remember that L2ARC stresses out the ARC and that you shouldn't exceed maybe a 4:1 ratio of L2ARC:ARC. »
290 - Quotas et réservations.
291 - Héritage des propriétés entre les datasets.
292 - Délégation fine des droits d'administration à des utilisateurs (ˋzfs allowˋ).
293 - Checksum : ZFS utilise des sommes de contrôle tout au long de l'arborescence des blocks de données à des endroits séparés des données (parent-block), et pas au niveau et à côté des données, ce qui permet non seulement de détecter les bits défectueux (bit-rot), mais également d'autres erreurs possibles : phantom writes, misdirected reads and writes, DMA parity errors, driver bugs, acccidental overwrites. Si plus d’une copie (copies= strictement supérieur à 1) est disponible et qu’une des copies est détectée comme corrompue, ZFS retournera seulement la copie valide et réparera les enregistrement endommagés. Si une erreur mais pas de copie pour réparer, ZFS signalera l'erreur au lieu de la passer sous silence.
294 - Scrubing (self-healing) : ˋzpool scrubˋ permet de faire une lecture réparatrice de tout ce qu'il y a dans un pool. Aussi lent que le pool contient de données. Il est important de la faire régulièrement automatiquement, cela ne devrait pas interférer avec les autres applications car le scrubing utilise les ressources avec une faible priorité.
295 - Send/Receive : ˋzfs sendˋ et ˋzfs receiveˋ permettent d’envoyer et de recevoir entièrement ou incrémentalement des captures instantanées (snapshots) vers d’autres machines. Ce transfert peut être effectué sans décompresser/déchiffrer puis compresser/chiffrer (avec `zfs send --raw`). Très utile pour faire des sauvegardes à distance à travers nc, ssh, ou mbuffer pour aller plus vite.
296 - Réplication : mirror, raidz-1, raidz-2, raidz-3, raidz-N où N est le nombre de disques qui peuvent cesser de fonctionner sans que cela n'impacte le système, c'est équivalent aux RAID1, RAID5, RAID6, …. L’équivalent de la reconstruction du RAID s’appelle ici « resilvering », mais celle-ci ne s'applique que sur l'espace utilisé du disque et non sur tout le disque, ce qui permet un temps de reconstruction proportionnel à l'usage et non à la capacité, ce qui stresse moins les disques, et les admins. Cependant cela peut tout de même prendre un temps à ne pas négliger, donc à tester pour ne pas avoir la surprise lors d'une crise, et pouvoir agir en conséquence avant, par exemple en mettant plus de disques de mirroir ou de parité, ou en utilisant du declustering raidz pour faire du load-balancing sur les disques et donc accélérer le resilvering.
297 - Déduplication : ZFS peut découvrir que des fichiers ou enregistrements sont similaires et éviter leur duplication, mais cela demande beaucoup de RAM.
298 - Snapshots/Clones/Rollback : ˋzfs snapshotˋ permet de prendre des instantanés au niveau d'un dataset en temps quasi-constant, tout comme Git permet de faire des branches. Directement lisibles en lecture-seule dans [dataset]/.zfs/snapshots/. La prise automatisée et régulière de snapshots est très utile pour toutes sortes d'applications et protections (erreurs de manipulations, ransomware). Plus rapide en activant le prefetch scan. ˋzfs cloneˋ permet de faire un dataset modifiable à partir d'un snapshot. ˋzfs rollbackˋ permet de réinitialiser un dataset à un ancien snapshot.
299 - Compression : ZFS permet de compresser les données selon divers algorithmes (LZ4 usuel, GZIP recommandé parfois par exemple sur les données séquentielles comme des logs, ou certaines bases de données), cette compression est généralement considérée comme un gain de performances et d’espace, surtout quand le temps que cette (dé)compression prend au CPU est moindre que le temps d’accès au disque.
300 - Chiffrement : ZFS permet (en version officielle depuis seulement mai 2019) de chiffrer et authentifier les données, ce qui permet notamment :
301 - la compression (contrairement à ecryptfs).
302 - de faire des sauvegardes de dossiers spécifiques sans déchiffrer les données.
303 - de faire du chiffrement de bout en bout (end-to-end) avec (zfs send).
304 D’après man zfs, sont chiffrées : zvol data, file attributes, ACLs, permission bits, directory listings, FUID mappings, and userused / groupused data.
305 Ne sont pas chiffrées : metadata related to the pool structure, including dataset and snapshot names, dataset hierarchy, properties, file size, file holes, and deduplication tables.
306 Le fait que tout ne soit pas chiffré peut être inquiétant mais permet d'effectuer des opérations de maintenance sur les données sans nécessiter de pouvoir les déchiffrer.
307 Le chiffrement peut être activé en cours de route, mais ne concernera que les données qui seront écrite par la suite.
308 Il est important d’avoir un support des instruction AES-NI, qui en plus d’améliorer le SSH, le VPN, le HTTPS, améliore le chiffrement du stockage lorsque de l'AES est utilisé.
309
310 ##### Ressources
311 - https://wiki.debian.org/ZFS
312 - https://github.com/zfsonlinux/zfs/wiki/Debian-Buster-Root-on-ZFS
313 - https://wiki.archlinux.org/index.php/ZFS
314 - https://nixos.wiki/wiki/NixOS_on_ZFS
315 - https://wiki.freebsd.org/ZFSTuningGuide
316 - https://www.unixsheikh.com/articles/battle-testing-data-integrity-verification-with-zfs-btrfs-and-mdadm-dm-integrity.html
317
318 #### RAID (Redundant Array of Inexpensive Disks)
319 La réplication entre deux disques ou plus permet de se prémunir contre la défaillance matérielle d'un des deux disques. Le coût à payer est d’acheter un deuxième disque (pas forcément d'emblée) et de supporter un temps de lecture qui peut aller jusqu'à la somme de celui de chaque disque, et un temps d'écriture qui égal à celui du disque le plus lent.
320 RAID est une solution de réplication matérielle ou logicielle bien établie.
321 RAID permet d’appliquer la réplication en dessous du chiffrement LUKS, alors que la réplication ZFS intervient en dessus du chiffrement LUKS, causant un chiffrement par disque de toute écriture. Toutefois, l’APU2 ayant un coprocesseur pour les AES-NI, en utilisant --cipher aes-xts-plain64 pour LUKS ces chiffrements supplémentaires n’auraient probablement pas d’un impact significatif sur les performances justifiant d’abandonner la flexibilité de ZFS.
322
323 Le RAID logiciel peut être contrôlé par mdadm ou LVM (--type=raid), le backend mdraid est le même mais ce n'est pas compatible, mdadm est plus établi et abouti que LVM.
324
325 Si cette pénalité devient trop importante, un RAID5 (ou raidz) pourra être envisagé : https://serverfault.com/questions/830708/raid-1-to-raid-5-using-mdadm .
326 Voire plutôt RAID6 qui n'a pas qu'un seul disque de parité, car le remplacement d'un disque est un facteur de défaillance des autres disques.
327 RAID (surtout RAID-5) a un problème fondamental lors de l’écriture appelé write-hole, que n'a pas ZFS : les écritures de données et de parités ne sont pas atomiques, par conséquent une coupure de courant au mauvais moment peut produire un état où les données sont écrites mais pas les parités : http://www.raid-recovery-guide.com/raid5-write-hole.aspx .
328
329 #### LUKS (Linux Unified Key Setup)
330 dm-crypt avec entêtes LUKS permet un chiffrement au niveau des block devices, et non uniquement au niveau du contenu ou des métadonnées des fichiers comme ZFS ou ecryptfs.
331
332 LUKS sera utile pour chiffrer le swap (qui ne peut pas encore être mis dans ZFS de manière fiable), et éventuellement le chiffrement complet du disque (c’est-à-dire de l’initrd et du kernel, mais pas du firmware ou du bootloader), auquel cas il faudra utiliser un LUKS1 (et pas LUKS2) tant qu’une version stable de GRUB ne supportera pas LUKS2.
333
334 Pour benchmarker LUKS : https://unix.stackexchange.com/questions/254017/how-to-interpret-cryptsetup-benchmark-results
335 > cryptsetup benchmark
336
337 Pour de l’AES-128 cela donne :
338 > cryptsetup luksFormat --iter-time 2s --hash sha256 --cipher aes-xts-plain64 --keysize 256 /dev/sdX
339 XTS est recommandé pour chiffrer des block devices, à noter toutefois qu’XTS sépare la clé en deux, ce qui nécessite de doubler --keysize.
340
341 #### ecryptfs
342 Le chiffrement par ecryptfs ne permet ni compression, ni déduplication (pas très grave) et rajoute des métadonnées en entête, ce qui prend (un peu) de place.
343
344 #### LVM (Linux Volume Manager)
345
346
347 # Actions
348
349 ## Machine
350 L'APU2 est la machine x86_64 (donc bien supportée par NixOS et GHC) basse conso, la plus ouverte (ce qui est bien dans l'esprit de Sourcephile), et elle devrait permettre d'assurer le plus important dans un premier temps.
351
352 - https://www.fsf.org/resources/hw
353 - https://wiki.debian.org/FreedomBox/Hardware
354 - https://nixos.wiki/wiki/NixOS_on_ARM
355
356 ## Réseau
357 Un essai d’hébergement est expérimenté chez PTT, qui est à côté de chez julm.
358
359 ## Stockage
360 Le stockage assure ici :
361 - du cache (LUKS+swap)
362 - du chiffrement (ZFS encryption)
363 - de la réversibilité (ZFS snapshots)
364 - de la sauvegarde (ZFS snapshots et `zfs send`)
365 - et de la base de données (ZFS customisé).
366
367 Le stockage n’assure pas ici :
368 - de la réplication (ZFS mirror/raidz) : tant que les services applicatifs pourront supporter une coupure de quelques jours, il n’y a pas de réplication en temps-réel, mais il faudra avoir un SSD de dépannage et réformer celui en production lorsqu’il sera descendu à 50% de santé. Mais une surveillance accrue de l’usure des disques et des sauvegardes régulières doit donc être menée.
369
370
371 Réemploi d’un Samsung 840 EVO (mieux que QVO) de 250GB, sans condensateur interne, que je possède mais n’ai que très peu utilisé jusque là (janvier 2020) :
372 > % smartctl-tbw /dev/disk/by-id/ata-Samsung_SSD_840_EVO_250GB_S1DBNSAF340110R
373 > /dev/disk/by-id/ata-Samsung_SSD_840_EVO_250GB_S1DBNSAF340110R Power_On_Hours 1437 hours / 59 days / 0.16 years
374 > /dev/disk/by-id/ata-Samsung_SSD_840_EVO_250GB_S1DBNSAF340110R Wear_Leveling_Count 99 (% health)
375 > /dev/disk/by-id/ata-Samsung_SSD_840_EVO_250GB_S1DBNSAF340110R Airflow_Temperature_Cel 24
376 > /dev/disk/by-id/ata-Samsung_SSD_840_EVO_250GB_S1DBNSAF340110R Total_LBAs_Written 685441898 / 334688 mb / 326.8 gb / 0.319 tb
377 > /dev/disk/by-id/ata-Samsung_SSD_840_EVO_250GB_S1DBNSAF340110R mean writes per hour: 232.91
378
379 > % fdisk -l /dev/disk/by-id/ata-Samsung_SSD_840_EVO_250GB_S1DBNSAF340110R
380 > Disk /dev/disk/by-id/ata-Samsung_SSD_840_EVO_250GB_S1DBNSAF340110R: 232.9 GiB, 250059350016 bytes, 488397168 sectors
381 > Disk model: 2235
382 > Units: sectors of 1 * 512 = 512 bytes
383 > Sector size (logical/physical): 512 bytes / 512 bytes
384 > I/O size (minimum/optimal): 512 bytes / 33553920 bytes
385 > Disklabel type: gpt
386 > Disk identifier: E42083E9-58B2-4CD0-B716-2B923C6B8007
387
388 ### Partitionnement
389 Un amorçage BIOS est utilisé (`boot.grub.devices = [ "/dev/disk/by-id/ata-Samsung_SSD_840_EVO_250GB_S1DBNSAF340110R" ]`), mais pas la partition EFI (`boot.grub.efiSupport = false`) qui est tout de même allouée si besoin un jour.
390
391 La table de partition est au format GPT, qui se retrouve de plus en plus dans les tutos que MSDOS, tout en étant bien supporté par les outils.
392 Les UUID sont randomisées (avec ˋsgdisk -Gˋ) et distincts d'un disque à l'autre.
393
394 Il ne semble pas nécessaire de faire une partition de secours (rescue), une clé USB, un accès par port série ou un busybox sur /boot devrait suffire.
395 La partition /tmp sera un tmpfs utilisant la RAM et les 4 à 8G de swap.
396 Les logs sont sur un dataset séparé pour garantir fortement qu'elle ne remplira pas celle des données, et pour que déchiffrer les logs, n'implique pas de déchiffrer les données.
397
398 > fdisk -l /dev/sda
399 > Disque /dev/sda : 232,9 GiB, 250059350016 octets, 488397168 secteurs
400 > Modèle de disque : Samsung SSD 840
401 > Unités : secteur de 1 × 512 = 512 octets
402 > Taille de secteur (logique / physique) : 512 octets / 512 octets
403 > taille d'E/S (minimale / optimale) : 512 octets / 512 octets
404 > Type d'étiquette de disque : gpt
405 > Identifiant de disque : 161F060D-FF6C-4FDA-8A2D-483F4155D35E
406 >
407 > Périphérique Début Fin Secteurs Taille Type
408 > /dev/sda1 48 2047 2000 1000K Amorçage BIOS
409 > /dev/sda2 2048 1050623 1048576 512M Système EFI
410 > /dev/sda3 1050624 3147775 2097152 1G Système de fichiers Linux
411 > /dev/sda4 3147776 11536383 8388608 4G Système de fichiers Linux
412 > /dev/sda5 11536384 488397134 476860751 227,4G /usr Solaris et ZFS Apple
413
414 > lsblk
415 > NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
416 > sda 8:0 0 232,9G 0 disk
417 > ├─sda1 8:1 0 1000K 0 part
418 > ├─sda2 8:2 0 512M 0 part /boot/efi
419 > ├─sda3 8:3 0 1G 0 part /boot
420 > ├─sda4 8:4 0 4G 0 part
421 > └─sda5 8:5 0 227,4G 0 part
422
423 > blkid
424 > /dev/sda1: PARTLABEL="bios" PARTUUID="e8f0f747-41e3-47a9-a813-a7b422aeb62c"
425 > /dev/sda2: LABEL_FATBOOT="EFI" LABEL="EFI" UUID="62E6-E65F" TYPE="vfat" PARTLABEL="uefi" PARTUUID="76ee8adb-d5c3-4b23-a895-2ad23519b73d"
426 > /dev/sda3: UUID="dc3c5387-17d2-43b3-bfa2-bf73afacca07" TYPE="ext2" PARTLABEL="boot" PARTUUID="82f5139d-19ba-4746-a6a5-70f8901530d5"
427 > /dev/sda4: PARTLABEL="swap" PARTUUID="6b1eaa35-776b-4e60-b21e-7bcee535dd8b"
428 > /dev/sda5: LABEL="rpool" UUID="4051860347751825829" UUID_SUB="15749116107064223960" TYPE="zfs_member" PARTLABEL="rpool" PARTUUID="3d462265-6c51-42c0-8bd8-d585eb076677"
429
430 > zpool list
431 > NAME SIZE ALLOC FREE CKPOINT EXPANDSZ FRAG CAP DEDUP HEALTH ALTROOT
432 > rpool 226G 1,08G 225G - - 0% 0% 1.00x ONLINE -
433
434 > zfs list
435 > NAME USED AVAIL REFER MOUNTPOINT
436 > rpool 1,08G 218G 96K /
437 > rpool/home 96K 218G 96K legacy
438 > rpool/nix 1,08G 218G 1,07G legacy
439 > rpool/root 312K 218G 312K legacy
440 > rpool/var 1,18M 218G 236K legacy
441 > rpool/var/cache 96K 218G 96K legacy
442 > rpool/var/log 552K 218G 552K legacy
443 > rpool/var/mail 96K 218G 96K legacy
444 > rpool/var/tmp 136K 218G 136K legacy
445 > rpool/var/www 96K 218G 96K legacy
446
447 ## Chiffrement
448 AES-128 est ici considéré comme suffisamment sécurisant vu le niveau de menace et de sécurité physique.
449 https://xkcd.com/538/
450
451 L’aes-xts en deux clés de 128 bits est choisi pour le swap. NixOS ne passe pas par /etc/crypttab, mais a randomEncryption.
452 Important d’utiliser device = /dev/disk/by-partuuid/… et pas /dev/disk/by-uuid/… or /dev/disk/by-label/… qui seront changées à chaque reboot, mais pas /etc/fstab du coup.
453 Important également d’utiliser /dev/urandom (le défaut) et pas /dev/random qui n’apporte aucune sécurité supplémentaire mais peut ralentir le boot significativement en épuisant l’entropie disponible.
454
455 > swapDevices =
456 > [ { device = "/dev/disk/by-partuuid/6b1eaa35-776b-4e60-b21e-7bcee535dd8b";
457 > randomEncryption = {
458 > enable = true;
459 > cipher = "aes-xts-plain64";
460 > source = "/dev/urandom";
461 > };
462 > }
463 > ];
464
465 > cryptsetup benchmark
466 > # Tests approximatifs en utilisant uniquement la mémoire (pas de stockage E/S).
467 > PBKDF2-sha1 140334 itérations par seconde pour une clé de 256 bits
468 > PBKDF2-sha256 182044 itérations par seconde pour une clé de 256 bits
469 > PBKDF2-sha512 124830 itérations par seconde pour une clé de 256 bits
470 > PBKDF2-ripemd160 105025 itérations par seconde pour une clé de 256 bits
471 > PBKDF2-whirlpool 59795 itérations par seconde pour une clé de 256 bits
472 > argon2i 4 itérations, 174847 mémoire, 4 threads parallèles (CPUs) pour une clé de 256 bits (temps de 2000 ms demandé)
473 > argon2id 4 itérations, 179163 mémoire, 4 threads parallèles (CPUs) pour une clé de 256 bits (temps de 2000 ms demandé)
474 > # Algorithme | Clé | Chiffrement | Déchiffrement
475 > aes-cbc 128b 145,3 MiB/s 339,0 MiB/s
476 > serpent-cbc 128b 13,1 MiB/s 35,4 MiB/s
477 > twofish-cbc 128b 31,7 MiB/s 37,8 MiB/s
478 > aes-cbc 256b 116,0 MiB/s 276,3 MiB/s
479 > serpent-cbc 256b 14,5 MiB/s 35,4 MiB/s
480 > twofish-cbc 256b 34,5 MiB/s 38,2 MiB/s
481 > aes-xts 256b 227,7 MiB/s 225,6 MiB/s
482 > serpent-xts 256b 34,6 MiB/s 34,7 MiB/s
483 > twofish-xts 256b 36,4 MiB/s 37,4 MiB/s
484 > aes-xts 512b 201,9 MiB/s 201,8 MiB/s
485 > serpent-xts 512b 34,8 MiB/s 34,9 MiB/s
486 > twofish-xts 512b 36,8 MiB/s 37,3 MiB/s
487
488 ## Sauvegardes
489 ### Manuelles
490 Entre deux pools :
491 > zfs send --raw sourcename@snapname | pv -rtab | time zfs receive -svF destination/dataset
492 Entre le disque SSD monté sur le port SATA, et un disque SSD externe (Samsung 860 EVO 1T) monté en USB3, le transfert va à ~110Mio/s (trois fois moins sans `--raw`), soit 15min pour transférer 100Gio.
493 `--raw` est ce qui permet de transférer sans {dé,re}compresser et {dé,re}chiffrer.
494
495 Entre deux pools mais à travers le réseau cette fois :
496 > [root@desthost] nc -l 8000 | mbuffer -q -s 128k -m 1G | pv -rtab | time zfs receive -svF destpool/destfs
497 > [root@srchost] zfs send --raw -I srcpool/srcfs@oldsnap sourcename@newsnap | mbuffer -q -s 128k -m 1G | pv -b | nc desthost 8000
498
499 En cas de coupure, il suffit de donner au send le receive_resume_token du receive pour reprendre où ça en était :
500 > [root@desthost] zfs get -H -o value receive_resume_token destpool/destfs
501 > [root@desthost] nc -l 8000 | mbuffer -q -s 128k -m 1G | pv -rtab | time zfs receive -svF destpool/destfs
502 > [root@srchost] zfs send -t $receive_resume_token | mbuffer -q -s 128k -m 1G | pv -b | nc desthost 8000
503
504 ## Consommation
505 Au repos :
506 > [root@mermet:~]# sensors
507 > k10temp-pci-00c3
508 > Adapter: PCI adapter
509 > temp1: +48.6°C (high = +70.0°C) (crit = +105.0°C, hyst = +104.0°C)
510 >
511 > fam15h_power-pci-00c4
512 > Adapter: PCI adapter
513 > power1: 4.23 W (interval = 0.01 s, crit = 6.00 W)
514
515 ## Noms de domaine
516 NSD4 prend minimum 100Mio de RAM.
517 Unbound pouvant également être serveur DNS faisant autorité, pour le peu de zones à annoncer, mélanger les deux suffira.
518
519 Ressources :
520 - https://www.bortzmeyer.org/separer-resolveur-autorite.html
521 - https://www.redpill-linpro.com/techblog/2019/08/27/evaluating-local-dnssec-validators.html
522
523 ## Travaux futurs
524 ### Machine d'orchestration
525 ### Machine de sauvegardes
526 Il est important de bien mettre en place une sauvegarde automatique, d’autant plus qu’il n’y a pas de réplication en temps-réelle mise en place sur un second disque.
527 ZFS (zfs send) devrait faciliter cette sauvegarde, en produisant notamment des sauvegardes directement lisibles/vérifiables, sans avoir besoin de restaurer la dernière version, juste de la déchiffrer.
528
529 D’autres outils sont pour l’instant écartés :
530 - duplicity : sauvegardes incrémentales requérant un snapshot complet et une liste de différences jusque là.
531 - BorgBackup : déduplication.
532
533 ### Machine de compilations
534 Il faut préalablement voir les performances que permet cette première machine, qui même si elles ne sont pas remarquables, peuvent suffire dans un premier temps.
535
536 - http://wiki.ant-computing.com/Choosing_a_processor_for_a_build_farm
537 > The intel Core as found in the Core i5 is performing very well, but hyperthreading brings little benefit here (13%). Thus a CPU should be chosen with real cores
538 > [...]
539 > In this test, the AMD was the fastest of all systems, and the ARM was the fastest fanless system and also the one delivering the highest throughput per cubic centimeter.
540 > [...]
541 > Some tests run with the ramlat utility showed that the build time almost solely depends on the L1 cache speed, then a little bit on the L2 cache speed and then finally on the DRAM speed. It does not exactly depend on the memory bandwidth but rather latency.
542
543
544 # Critiques
545 ## Inconvénients
546 ### Vulnérabilités Metldown et Spectre
547 Problème : l’AMD GX-412TC de l’APU2 est vulnérable à Meltdown et Spectre. L’atténuation n’est que partielle : https://blog.3mdeb.com/2019/2019-05-29-spectre-and-meltdown-on-apu2/
548
549 Réponse : tous les CPU Intel ou AMD sont plus ou moins affectés par ces vulnérabilités.
550 Il semble que tout soit néanmoins atténué :
551 > git clone https://github.com/speed47/spectre-meltdown-checker.git
552 > spectre-meltdown-checker/spectre-meltdown-checker.sh
553 > Spectre and Meltdown mitigation detection tool v0.43-3-ga1a35c9
554 >
555 > Checking for vulnerabilities on current system
556 > Kernel is Linux 4.19.81 #1-NixOS SMP Tue Oct 29 08:20:09 UTC 2019 x86_64
557 > CPU is AMD GX-412TC SOC
558 > […]
559 > * CPU microcode is the latest known available version: NO (latest version is 0x7030106 dated 2018/02/09 according to builtin firmwares DB v130.20191104+i20191027)
560 > […]
561 > SUMMARY: CVE-2017-5753:OK CVE-2017-5715:OK CVE-2017-5754:OK CVE-2018-3640:OK CVE-2018-3639:OK CVE-2018-3615:OK CVE-2018-3620:OK CVE-2018-3646:OK CVE-2018-12126:OK CVE-2018-12130:OK CVE-2018-12127:OK CVE-2019-11091:OK CVE-2019-11135:OK CVE-2018-12207:OK
562 > Need more detailed information about mitigation options? Use --explain
563 > A false sense of security is worse than no security at all, see --disclaimer
564
565 ### L'APU2 n'a pas une alimentation redondée
566 Problème : l'alimentation est l'un des composants les plus susceptibles de ne plus fonctionner.
567
568 Réponse : entreposer une seconde alimentation à côté du serveur, de sorte à minimiser le temps de hors-service et que cela puisse éventuellement être fait par l'hébergeur.
569
570 ### L'APU2 n'est pas adapté à la virtualisation
571 Problème : pour faire de la virtualisation il est préférable d'avoir des CPU avec des instructions adaptées (VT), de la RAM en quantité (~512Mio/VM) et de l'IOMMU (pas encore stable dans l'APU2).
572
573 Réponse : la virtualisation est surtout adaptée lorsque ce ne sont pas les mêmes personnes qui gèrent les services, ou lorsqu'il faut faire tourner des OS différents. Mais dans le cas présent ce n'est pas le cas, donc des containers type LXC devraient suffire du point de vue d'une compartimentation sécuritaire.
574
575 ### PTT ne propose pas d’accès secondaire par port série
576 Problème : l’APU2 n’a pas d’IPMI, seulement un port série, cependant PTT n'a pas de switch de ports série ou USB pour le moment, et ne sait pas trop comment gérer les accès d’un tel switch. Cet accès secondaire est important pour espérer pouvoir redémarrer l’APU2 à distance. Cependant seule une coupure de l’alimentation permet un redémarrage propre (cold-boot).
577
578 Réponse : il faudrait probablement étudier et proposer nous même un switch permettant cela. Pour le cold-boot, utile surtout lors d'une mise-à-jour de coreboot, on peut désormais `setpci -s 18.0 6c.L=10:10` avant le reboot.
579
580 ### nsd4 et iodined nécessitent tous deux le port 53
581 Problème : normalement nsd4 et iodined sont incompatibles sur une seule et même IPv4 (à 3€/mois ici), car ils requièrent tous deux l’écoute sur le port 53 du DNS.
582
583 Réponse : ce n’est pas très propre, mais il est possible de mutualiser ce port avec une règle iptables du genre : `-A nat -p udp --dport 53 -m string --algo kmp --from 40 --hex-string |01|i|0b|sourcephile|02|fr|00| -j DNAT --to-destination :5353` où iodined écoute maintenant sur le port 5353.
584
585 ### ZFS n’est pas (trivialement) adapté aux bases de données
586 Problème : les bases de données ont des performances amoindries sous un ZFS qui n’est pas customisé pour. Le copy-on-write de ZFS peut avoir un impact négatif très significatif sur les applications dont le cœur de métier est de modifier des fichiers en place, comme MySQL ou PostgreSQL : https://wiki.freebsd.org/ZFSTuningGuide#Application_Issues
587
588 Réponse : on utilise actuellement du SSD pour tout (donc pour le ZIL qui gère les écritures synchrones, eg. O_SYNC) donc ça devrait aller sans L2ARC pour lequel l'APU2E4 n'a de toute façon pas assez de RAM. Il y a des atténuations possible à tester (sync=always, recordsize inférieur à 128k, …), il semble raisonnable à ce stade de ne pas chercher une optimisation prématurée en allouant une partition EXT4 de taille arbitraire et en s’imposant tout ce que ça implique de configuration de RAID/LUKS/LVM alors que ZFS nous permet justement de nous en passer. Il restera toujours possible de rajouter un SSD avec LUKS+EXT4 dédié aux bases de données si c’est vraiment trop problématique.
589
590 Ressources :
591 - https://www.percona.com/blog/2018/02/16/why-zfs-affects-mysql-performance/
592 - https://www.percona.com/resources/webinars/zfs-mysql
593 - https://www.percona.com/blog/2018/05/15/about-zfs-performance/
594
595 #### `recordsize`
596 ZFS utilise la plus petite taille de bloc contenant les données et inférieure à recordsize.
597 Ainsi, avec recordsize=128K (le défaut), si on a un fichier de 500 octets de données, alors ZFS utilisera un bloc de 512 octets. Si on rajoute 20 octets de données, alors ZFS utilisera un seul block de 1024 octets. Et ainsi de suite jusqu’à atteindre le recordsize de 128Ko, de sorte qu’un fichier de 1Mo ZFS utilisera 8 blocs.
598
599 Mettre la page size de SQLite3 à la valeur du recordsize de ZFS peut aider.
600 Mais il n’y a pas moyen d’attacher un recordsize spécifique à un seul fichier.
601
602 ### Le chiffrement de ZFS limite le nombre de copies à 2
603 Problème : même sans activer une réplication (mirror ou raidz), ZFS permet de garder plusieurs copies de chaque fichier, mais lorsque ces fichiers sont chiffrés ce nombre est actuellement limité à 2.
604
605 Réponse : c’est déjà pas mal.
606
607 ### ZFS requiert de l’espace de stockage libre
608 Problème : ZFS fonctionne par copy-on-write ce qui implique qu’écrire demande beaucoup plus d’espace libre que pour d’autres systèmes de fichiers. Même pour écraser un fichier il faut de l’espace libre ! En outre, comme pour tous les systèmes de fichiers, l’espace disponible annoncé avant son utilisation est généralement supérieur à l’espace utilisable mesuré fichier à fichier, ce qui peut quand même représenter quelques Gio de moins sur 100Gio.
609
610 Réponse : ZFS nécessite de veiller à la RAM et au stockage libre, il faut veiller à ce que ZFS ait toujours au moins 20% d’espace libre pour ne pas avoir de pertes de performances et éviter de taper toujours sur les mêmes secteurs du SSD, ce qui diminuerait sensiblement son espérance de vie. Concernant le calibrage de l’espace, il vaut toujours mieux utiliser `du` (ou `ncdu`) que `df`.
611
612 ## Question non-résolues
613
614 ## Alternatives
615
616 ### RAID+LUKS+LVM+ext4
617 La réplication peut être assurée par RAID (RAID1) au lieu de ZFS (mirror ou raidz).
618
619 Le chiffrement par dm-crypt+LUKS au-dessous de ZFS a pour désavantages d'impliquer que les copies/réplications de ZFS sont chiffrées plusieurs fois, et que les clés doivent toujours être en mémoire. Il est par contre pertinent de l’utiliser pour le swap compte tenu que ZFS a encore un bug ouvert concernant le swap dans ZFS : https://github.com/zfsonlinux/zfs/issues/7734
620
621 ### TLsense
622 - Processeur : Intel i3 | i5 | i7
623 - i7 : https://teklager.se/en/products/routers/tlsense-i7-4lan
624 - Mémoire : 8Go
625 - Réseau : 4x Gigabit Ethernet
626 - Conception : Suède
627 - Fabrication : ?
628
629 ### Helios4
630 - Infos : https://kobol.io/helios4/
631 - Prix : 177€
632 Open hardware mais ARM pas x86, et plus en vente pour le moment.
633
634 ### HPE ProLiant MicroServer
635 - Processeur : AMD Opteron X3416 (2x 1.6–3.0GHz) | X3421 (4x 2.1–3.4GHz)
636 - Mémoire : 1x 8Go (max 2x 16Go) DDR4-SDRAM (X3416: 1600Mhz | X3421: 2400MHz) Unbuffered ECC (non-soudées)
637 - Cache L2 : X3416: 1Mo | X3421: 12Mo
638 - Réseau : 2x Gigabit Ethernet
639 - Électricité : 12-35W
640 - Stockage : 4x SATA 3.5"
641 - Extensions : 2x PCIe 3.0
642 - Prix :
643 - X3416 : 328€HT https://www.senetic.fr/product/873830-421
644 - X3421 : 415€HT https://www.senetic.fr/product/P04923-421
645 - Conception : USA
646 - Fabrication : ?