Solución 1:
Dividir la memoria caché del búfer es perjudicial, pero el efecto que tiene es mínimo. Supongo que es tan pequeño que es básicamente imposible de medir.
Debe recordar que los datos entre diferentes puntos de montaje tampoco se puede compartir.
Si bien los diferentes sistemas de archivos usan diferentes búferes de asignación, no es como si la memoria se asignara solo para sentarse allí y verse bonita. Datos de slabtop
para un sistema que ejecuta 3 sistemas de archivos diferentes (XFS, ext4, btrfs):
OBJS ACTIVE USE OBJ SIZE SLABS OBJ/SLAB CACHE SIZE NAME 42882 42460 99% 0.70K 1866 23 29856K shmem_inode_cache 14483 13872 95% 0.90K 855 17 13680K ext4_inode_cache 4096 4096 100% 0.02K 16 256 64K jbd2_revoke_table_s 2826 1136 40% 0.94K 167 17 2672K xfs_inode 1664 1664 100% 0.03K 13 128 52K jbd2_revoke_record_ 1333 886 66% 1.01K 43 31 1376K btrfs_inode_cache (many other objects)
Como puede ver, cualquier caché realmente grande tiene un nivel de utilización de más del 90%. Como tal, si usa varios sistemas de archivos en paralelo, el costo es aproximadamente igual a perder el 5 % de la memoria del sistema, menos si la computadora no es un servidor de archivos dedicado.
Solución 2:
No creo que haya un impacto negativo. A menudo tengo ext3/ext4 mezclado con XFS (e incluso ZFS) en la misma configuración de servidor. No describiría mi rendimiento como algo inferior a lo esperado, dado el hardware en el que estoy trabajando.
[[email protected] ~]# mount
/dev/cciss/c0d0p2 on / type ext4 (rw)
/dev/cciss/c0d0p7 on /tmp type ext4 (rw,nobarrier)
/dev/cciss/c0d0p3 on /usr type ext4 (rw,nobarrier)
/dev/cciss/c0d0p6 on /var type ext4 (rw,nobarrier)
vol2/images on /images type zfs (rw,xattr)
vol1/ppro on /ppro type zfs (rw,noatime,xattr)
vol3/Lancaster_Test on /srv/Lancaster_Test type zfs (rw,noatime,xattr)
¿Le preocupa un escenario específico? ¿Qué sistemas de archivos estarían en juego? ¿En qué distribución estás?