Bij het opstarten krijg je eerst een scherm van nog 8 sec dan wat kernelinfo en dan het hoofdscherm waar je inlogd maar voordat echt dat scherm helemaal vol in beeld heb en dat je je username kan in vullen blijft hij best wel lang hangen misschien maar 30 sec of zo maar je denkt dan toch komt het nog zal dit te versnellen zijn?.:
Is toch altijd weer lastig te beschrijven dit soort dingen.Hoop dat het een beetje duidelijk is
Da’s niet normaal op jouw hardware. Heb je geupgradet of een schone installatie gedaan?
Kun je output van
systemd-analyze blame
hier posten?
Hoi Knurpht
Ik heb een schoene instalatie gedaan het enigste wat ik na de instalatie gedaan heb is een interne HD erbij gezet.
Ik starte net de comp op en toen kwam er even snel een failed warschuwing langs zetten was maar 1 sec toen was het weg
chromset failed
Dacht ik te zien.:
Heb
systemd-analyze blame
uitevoerd en kreeg het volgende
systemd-analyze blame
18.800s network.service
18.525s network@enp5s0.service
695ms nfs.service
334ms systemd-udev-settle.service
137ms postfix.service
119ms apparmor.service
86ms SuSEfirewall2.service
85ms systemd-remount-fs.service
57ms SuSEfirewall2_init.service
46ms ModemManager.service
41ms kmod-static-nodes.service
39ms systemd-readahead-collect.service
39ms systemd-readahead-replay.service
39ms dev-mqueue.mount
38ms sys-kernel-debug.mount
38ms systemd-udev-root-symlink.service
38ms dev-hugepages.mount
38ms cycle.service
34ms xdm.service
33ms udisks2.service
32ms home-pieter1602-Intern1.mount
29ms plymouth-read-write.service
28ms rpcbind.service
28ms systemd-logind.service
28ms systemd-vconsole-setup.service
26ms avahi-daemon.service
25ms rsyslog.service
23ms wpa_supplicant.service
21ms plymouth-start.service
12ms systemd-udev-trigger.service
11ms rtkit-daemon.service
10ms polkit.service
10ms lvm2-activation-early.service
9ms systemd-tmpfiles-setup-dev.service
9ms home.mount
9ms alsa-restore.service
8ms user@1000.service
8ms lvm2-activation.service
6ms upower.service
6ms systemd-tmpfiles-setup.service
4ms bluetooth.service
4ms systemd-backlight@acpi_video0.service
4ms systemd-random-seed.service
3ms systemd-update-utmp-runlevel.service
3ms systemd-modules-load.service
3ms dev-disk-by\x2did-ata\x2dINTEL_SSDSC2CT120A3_CVMP2363022G120BGN\x2dpart1.swap
3ms var-lock.mount
3ms var-run.mount
2ms rc-local.service
2ms systemd-user-sessions.service
2ms systemd-update-utmp.service
2ms systemd-journal-flush.service
2ms systemd-hostnamed.service
1ms systemd-readahead-done.service
1ms systemd-sysctl.service
1ms sys-fs-fuse-connections.mount
1ms systemd-udevd.service
Ben benieuwd of je er iets mee kan.
De grote tijdsvreters zie je bovenaan staan: networking. Ik zie dat je nfs gestart hebt, dat heeft netwerkverbinding nodig. Je zou dat kunnen bevestigen door nfs uit te zetten, het systeem te herstarten en opnieuw naar de output van
systemd-analyze blame
te kijken. Als 't probleem dan weg is, weten we zeker dat 't daar ontstaat.
Maar, ik zie ook wpa_supplicant, dus een draadloze verbinding, en als jij Netwerkmanager gebruikt, zit nfs daarop te wachten, die service vereist nl. dat het netwerk gestart is.
Als je niet de Networkmanager gebruikt, maar ifup/traditioneel i.c.m. draadloos, dan kun je het volgende doen:
- Yast - Netwerkapparaten - Netwerkinstellingen
Doe het volgende voor beide netwerkkaarten: - Aanklikken, klik Bewerken
- Klik op de tab Algemeen
- Zet “Activeer apparaat” op “tijdens opstarten”
Sla de instellingen op, herstart 't systeem.
NB. Voordat je 't tweede stuk probeert, wel even nfs weer aanzetten.
IK had in NFS client een share aangemaakt die heb ik verwijderd,is dat dan het zelfde als NFS uitzetten?
Want na alles opnieuw opgestart te hebben is er nog niet veel verschil in opstarttijden.:
Zie ook dat de netwerkaart al ingesteld is zoals je zegt( bij opstarten).
En ik heb op deze PC geen draadloze netwerkaart gewoon een draadje.
Heb hem denk ik gevonden ben verder gaan zoeken en heb bij services beheer nfs gedisabled.
Alles gaat nu supersnel:)Maar wel jammer van die nfs share.
Het ligt dus inderdaad aan NFS. En jammer? Ergens moet 't systeem melden waar 't die tijd aan kwijt is.
Hoe had je de NFS client opgezet? Dit is de client kant, maar 't kan ook heel goed aan de serverzijde liggen.
Eigenlijk zou het mooi zijn als de nfs service gestart word als de comp is opgestart maar dat is misschien te veel gevraagd.:\
Waarom? NFS behoort tot de systeem services. Zodra er netwerkverbinding tot stand gebracht is moeten ook de NFS shares aangekoppeld worden.
Wat achtergrond: één van de meest gebruikte NFS toepassingen -heb dat zelf al jaren zo- is een server met alle homedirs erop, via NFS “/home” exporteren en die op alle PC’s tijdens het opstarten aankoppelen via de NFS client. Op het moment dat de gebruikers inloggen, komen de gebruikersdata van/op de NFS share. Ik doe daarnaast nog het gebruikersbeheer en de -aanmelding via NIS, waardoor er op de client PC’s helemaal geen gebruikers en hun data aanwezig zijn, en ik dus ook alleen de server hoef te backuppen.
Als we de computers even “server” en “client” noemen, wat draait er dan precies op beide m.b.t. NFS?
Firewall?
NFS versie?
Moest even goed lezen hoe je het bedoelt maar ik begrijp dat je alle /home mappen op een server hebt,dat is een mooie oplossing ik heb dus de NFS share om mijn home dan daar naar toe te backuppen.
De OpenSuse pc is de client de server is bij mij een Synology Nas.
Wat ik daar gedaan heb is gewoon een map aangemaakt en die NFS rechten gegeven de NFS zou dat een oude versie kunnen zijn ? want hetding is zo oud ,dat de firmware al 2 jaar niet meer geupdate word,Op de nas zit geen firewall.
Op de Opensuse pc staat wel de firewall aan daar heb ik verder noch niet naar gekeken,zal ik ook zo even doen.:\Nas heeft geen firewall.
Op de OpenSuse pc heb ik alleen een share aangemaakt en niet aan de settings gezeten.
Maar eigenlijk is het zo dat NFS in services aan moet en dat het langzame aanmeldingen ergens via instellingen verbeterd moet worden.?:
Voor een goed functionerende share.
Je koppelt dus op je PC een shared folder van de NAS aan? En daar kopiëer je /home (of een deel ervan) naartoe als backup?
Kun je output posten van
cat /etc/fstab
en
cat /etc/nfsmount.conf
cat /etc/fstab
/dev/disk/by-id/ata-INTEL_SSDSC2CT120A3_CVMP2363022G120BGN-part1 swap swap defaults 0 0
UUID=8c01825d-a538-4fe5-9f56-98f3f7841012 / btrfs defaults 0 0
UUID=1cfd3288-030c-4d75-8514-37f7cdaa71f5 /home btrfs defaults 0 0
LABEL=Intern1 /home/pieter1602/Intern1 ext4 defaults 0 0
192.168.1.13:/volume1/LinuxPC /media/Cube nfs defaults 0 0
Dit is de eerste en dan de volgende dat is een heel verhaal :
cat /etc/nfsmount.conf
#
# /etc/nfsmount.conf - see nfsmount.conf(5) for details
#
# This is an NFS mount configuration file. This file can be broken
# up into three different sections: Mount, Server and Global
#
# MountPoint "Mount_point" ]
# This section defines all the mount options that
# should be used on a particular mount point. The '<Mount_Point>'
# string need to be an exact match of the path in the mount
# command. Example:
# MountPoint "/export/home" ]
# background=True
# Would cause all mount to /export/home would be done in
# the background
#
# Server "Server_Name" ]
# This section defines all the mount options that
# should be used on mounts to a particular NFS server.
# Example:
# Server "nfsserver.foo.com" ]
# rsize=32k
# wsize=32k
# All reads and writes to the 'nfsserver.foo.com' server
# will be done with 32k (32768 bytes) block sizes.
#
NFSMount_Global_Options ]
# This statically named section defines global mount
# options that can be applied on all NFS mount.
#
# Protocol Version [2,3,4]
# This defines the default protocol version which will
# be used to start the negotiation with the server.
# Defaultvers=4
#
# Setting this option makes it mandatory the server supports the
# given version. The mount will fail if the given version is
# not support by the server.
# Nfsvers=4
#
# Network Protocol [udp,tcp,rdma] (Note: values are case sensitive)
# This defines the default network protocol which will
# be used to start the negotiation with the server.
# Defaultproto=tcp
#
# Setting this option makes it mandatory the server supports the
# given network protocol. The mount will fail if the given network
# protocol is not supported by the server.
# Proto=tcp
#
# The number of times a request will be retired before
# generating a timeout
# Retrans=2
#
# The number of minutes that will retry mount
# Retry=2
#
# The minimum time (in seconds) file attributes are cached
# acregmin=30
#
# The Maximum time (in seconds) file attributes are cached
# acregmin=60
#
# The minimum time (in seconds) directory attributes are cached
# acregmin=30
#
# The Maximum time (in seconds) directory attributes are cached
# acregmin=60
#
# Enable Access Control Lists
# Acl=False
#
# Enable Attribute Caching
# Ac=True
#
# Do mounts in background (i.e. asynchronously)
# Background=False
#
# Close-To-Open cache coherence
# Cto=True
#
# Do mounts in foreground (i.e. synchronously)
# Foreground=True
#
# How to handle times out from servers (Hard is STRONGLY suggested)
# Hard=True
# Soft=False
#
# Enable File Locking
# Lock=True
#
# Enable READDIRPLUS on NFS version 3 mounts
# Rdirplus=True
#
# Maximum Read Size (in Bytes)
# Rsize=8k
#
# Maximum Write Size (in Bytes)
# Wsize=8k
#
# Maximum Server Block Size (in Bytes)
# Bsize=8k
#
# Ignore unknown mount options
# Sloppy=False
#
# Share Data and Attribute Caches
# Sharecache=True
#
# The amount of time, in tenths of a seconds, the client
# will wait for a response from the server before retransmitting
# the request.
# Timeo=600
#
# Sets all attributes times to the same time (in seconds)
# actimeo=30
#
# Server Mountd port mountport
# mountport=4001
#
# Server Mountd Protocol
# mountproto=tcp
#
# Server Mountd Version
# mounvers=3
#
# Server Mountd Host
# mounthost=hostname
#
# Server Port
# Port=2049
#
# RPCGSS security flavors
# [none, sys, krb5, krb5i, krb5p ]
# Sec=sys
Ben benieuwd of je hier iets mee kan.:\
Heb daar niet altijd de tijd voor, maar ik zal proberen mijn denken ook wat mee te posten, zodat 't niet zo mysterieus wordt:
- Bij vertraging in het starten is de oorzaak meestal netwerk gerelateerd, dat werd door systemd-analyze blame bevestigd (aantal ms is relatief veel te groot)
- Jij hebt zelf al aangegeven dat 't probleem vóór 't inloggen ontstaat, bij autologin moet je dat eerst even uitvinden
- Als 't inderdaad 't netwerken is, is 't meestal niet 't netwerk zelf (kan wel, kapotte netwerkkaart), maar netwerk-servive(s).
- NFS behoort bij de services waarvan bekend is dat die dit soort problemen kan opleveren, o.a. door het niet tijdig starten van netwerkkaart(en), conflict/timeout door verschillen in NFS versie
Van de laatste regel hebben we de eerste optie al buitengesloten, verder dus met de 2e. Aangezien je ook hebt geschreven dat de NAS niet echt nieuw is lijkt 't me stug, dat die NFS versie 4 verwacht van de client. Verander daarom in /etc/nfsmount.conf de regel
# Defaultvers=4
eens in
Defaultvers=3
, zet NFS weer aan, en reboot om te kijken of er verbetering in zit.
# Defaultvers=4
Veranders in 3 en weer opnieuw opgestart maar zat niet echt verschil in.
Heb me zelf ook op auto inlog gezet maar maakt niet zo veel uit lijkt iets korter maar kan ook inbeelding zijn doordat je niet inlogd:)
Daar kan 't verschil niet in zitten. Voordat er überhaupt ingelogd kan worden, auto of niet, moet kdm starten, en dat gebeurt pas aan het eind, als alle systeemservices gestart zijn, waaronder het netwerk en NFS.
EDIT: kun je de oude waarde 's terugzetten, rebooten en dan via Yast - Netwerkservices - NFS client - NFS instellingen “NFS4 activeren” uitvinken? Opslaan, rebooten en kijken of 't blijft bestaan
EDIT2: Had je wel 't # ervoor weggehaald? Zo niet, dan heeft 4 in 3 veranderen geen zin.
Heb hem van ifup afgehaald en gebruik nu netwerkmanager en krijg nu dit:
systemd-analyze blame
364ms nfs.service
336ms systemd-udev-settle.service
101ms apparmor.service
77ms SuSEfirewall2.service
77ms systemd-vconsole-setup.service
70ms plymouth-start.service
68ms SuSEfirewall2_init.service
62ms systemd-remount-fs.service
58ms ModemManager.service
42ms kmod-static-nodes.service
42ms systemd-readahead-collect.service
42ms systemd-readahead-replay.service
42ms systemd-udev-root-symlink.service
42ms dev-hugepages.mount
42ms cycle.service
41ms rsyslog.service
41ms dev-mqueue.mount
41ms sys-kernel-debug.mount
40ms rpcbind.service
32ms xdm.service
32ms avahi-daemon.service
31ms home-pieter1602-Intern1.mount
30ms udisks2.service
30ms wpa_supplicant.service
30ms systemd-logind.service
14ms lvm2-activation-early.service
13ms NetworkManager.service
12ms systemd-udev-trigger.service
12ms plymouth-read-write.service
12ms alsa-restore.service
11ms polkit.service
10ms home.mount
10ms rtkit-daemon.service
9ms user@1000.service
8ms user@0.service
7ms systemd-modules-load.service
5ms lvm2-activation.service
3ms dev-disk-by\x2did-ata\x2dINTEL_SSDSC2CT120A3_CVMP2363022G120BGN\x2dpart1.swap
3ms systemd-tmpfiles-setup-dev.service
3ms systemd-udevd.service
3ms upower.service
3ms systemd-tmpfiles-setup.service
3ms systemd-random-seed.service
2ms systemd-update-utmp-runlevel.service
2ms systemd-journal-flush.service
2ms bluetooth.service
2ms rc-local.service
2ms var-lock.mount
2ms systemd-backlight@acpi_video0.service
1ms var-run.mount
1ms sys-fs-fuse-connections.mount
1ms systemd-sysctl.service
1ms systemd-readahead-done.service
1ms systemd-update-utmp.service
947us systemd-user-sessions.service
En nu start hij echt snel op Grappig maar snap er niets van ?:(Maar ben zo zeer tevreden:)!
Het lost het conflict op, omdat het netwerken pas later gestart wordt. En tevreden mensen, die moet je lekker tevreden laten
Pieter,
Deze thread https://forums.opensuse.org/english/get-technical-help-here/network-internet/489824-nfsv4-missing-directory-contents-slow-mounting.html kwam ik net tegen. De post van interele, dat was de info waarnaar ik op zoek was. Daarmee zou je ook zonder netwerkmanager weer op volle snelheid moeten kunnen booten en inloggen.
blacklist rpcsec_gss_krb5
to /etc/modprobe.d/50-blacklist.conf
IK dacht dat doe ik even maar die blacklist.config heeft veel verschillende zeg maar deeltjes waar je dat
rpcsec kan plaatsen.
En eigenlijk heb ik dus geen idee waar ik dat het beste kan doen.:\
Ik doe dit soort dingen als volgt:
su
echo "# nfs timeout hack" >> /etc/modprobe.d/50-blacklist.conf
echo "blacklist rpcsec_gss_krb5" >> /etc/modprobe.d/50-blackliist.conf
Op deze manier heb je een commentaar regeltje (waar was dit ook al weer voor?), en de blacklist regel, helemaal achteraan in het bestand.