SharePointCommunity
Die deutschsprachige Community für SharePoint, Microsoft 365, Teams, Yammer und mit Azure

Sponsored by

Willkommen im Forum Archiv.
Einträge sind hier nicht mehr möglich, aber der Bestand von 12 Jahren SharePoint-Wissen ist hier recherchierbar.




Problem mit search application auf Shrepoint 2013 server

Dieser Beitrag hat 12 Antworten

Ohne Rang
25 Beiträge
Strucko erstellt 25 Juli 2014 11:34
SchlechtSchlechtIn OrdnungIn OrdnungDurchschnittDurchschnittGutGutSehr gutSehr gut

Hallo Zusammen,

ich nutze bei eine SharePoint 2013 Server die search application als Suchmaschine fürs Filesystem.

Habe seit 3-4 Tage einen merkwürdigen Effekt:

Es läuft ein incremental crawl aber die crawl rate bleibt bei 0.0. Habe sowohl den Web- als auch den DB Server neu gestartet. Passiert leider nix.

Bei search application Topologie sind überall grüne Haken.

 Die Maschine hat bisher 10.1 m Dateien indiziert. Gibt es da eventuell ein Limit?

Irgendeine Idee was sein könnte? Finde in den Eventlogs keine Fehlermeldungen

Strucko

 

 

 

 

Alle Antworten

Ohne Rang
19231 Beiträge
Andi Fandrich Als Antwort am 25 Juli 2014 11:50
SchlechtSchlechtIn OrdnungIn OrdnungDurchschnittDurchschnittGutGutSehr gutSehr gut

Ich glaube nicht, daß Du damit schon eine Grenze erreicht hast (http://technet.microsoft.com/de-de/library/cc262787(v=office.15).aspx).

Vermutlich hat sich einfach der Crawl aufgehängt und Du solltest ihn abwürgen. Danach muß allerdings ein Full Crawl laufen (der entsprechend lange dauern dürfte)..

Viele Grüße
Andi
af @ evocom de
Blog
Ohne Rang
25 Beiträge
Strucko Als Antwort am 25 Juli 2014 12:07
SchlechtSchlechtIn OrdnungIn OrdnungDurchschnittDurchschnittGutGutSehr gutSehr gut

Hallo Andi,

auf der Maschine laufen mehr als 20 crawls. Natürlich nicht zeitgleich!!!! Habe alle Jobs auf Pause gestellt.,

Ist egal welchen Job ich nehme. Immer der gleiche Effekt. Habe auch schon eine neuen Crawls Job für eine neue Maschine erstellt. Da passiert auch nichts. Crawling full läuft aber die Anzahl der Dateien bleibt auf 0 stehen. Keine Fehler, Ausnahmen oder sonstiges.

Traue mich jetzt nicht den Index komplett zu löschen und von vorne anzufangen. Dann dauert das wieder 2-3 Wochen bis alles indiziert ist..

Gruss Strucko

 

 

Ohne Rang
19231 Beiträge
Andi Fandrich Als Antwort am 25 Juli 2014 12:31
SchlechtSchlechtIn OrdnungIn OrdnungDurchschnittDurchschnittGutGutSehr gutSehr gut

Die Crawls zu pausieren bringt da gar nichts. Damit hältst Du sie ja nur vorübergehend an. Wenn dann solltest Du sie abbrechen.

Beachte auch, daß die Crawl-Logs, also dort wo steht, wieviele Dateien indiziert wurden, erst nach dem Crawlvorgang aktualisiert werden - nicht währenddessen.

Viele Grüße
Andi
af @ evocom de
Blog
Ohne Rang
25 Beiträge
Strucko Als Antwort am 27 Juli 2014 07:52
SchlechtSchlechtIn OrdnungIn OrdnungDurchschnittDurchschnittGutGutSehr gutSehr gut

Hallo Andi,

hilft leider auch nichts. Alle Crawls gestoppt und nur einen dann neu gestartet. Crawl-Rate bleibt bei 0.

Irgendeine andere Idee?

 

Gruss

Strucko

 

Ohne Rang
65 Beiträge
Andreas1983 Als Antwort am 28 Juli 2014 15:41
SchlechtSchlechtIn OrdnungIn OrdnungDurchschnittDurchschnittGutGutSehr gutSehr gut

Hallo,

 

ist denn noch genügend Platz auf der Platte vorhanden?

Für den Index rechnet man ca. 20% vom indizierenden Inhalt.

Ohne Rang
25 Beiträge
Strucko Als Antwort am 28 Juli 2014 16:00
SchlechtSchlechtIn OrdnungIn OrdnungDurchschnittDurchschnittGutGutSehr gutSehr gut

Hallo,

ja, ist eine 300 GB Platte, aktuell sind noch 170 GB frei.

Denn Effekt kenne ich bereits das das System hängt wenn die Platte voll läuft.

Strucko

Ohne Rang
65 Beiträge
Andreas1983 Als Antwort am 28 Juli 2014 16:04
SchlechtSchlechtIn OrdnungIn OrdnungDurchschnittDurchschnittGutGutSehr gutSehr gut

ok,

 

wieviel Inhalt (in GB) soll denn indiziert werden?

Ohne Rang
25 Beiträge
Strucko Als Antwort am 28 Juli 2014 16:14
SchlechtSchlechtIn OrdnungIn OrdnungDurchschnittDurchschnittGutGutSehr gutSehr gut

Hallo,

das sind ein paar TB! Der Kram lief ja schon mehrere Monate ohne Probleme durch. Es liefen nur die täglichen/wöchentlichen Incrementells.

Nun habe ich eben seit ein paar Tagen das Problem das er anzeigt das er crawld, aber nix passiert und die Jobs werden auch nicht fertig.

Im "Crawl Health Report sind die Raten seit ein paar Tagen alle auf 0

 

 

Ohne Rang
65 Beiträge
Andreas1983 Als Antwort am 29 Juli 2014 09:45
SchlechtSchlechtIn OrdnungIn OrdnungDurchschnittDurchschnittGutGutSehr gutSehr gut

Bei einigen TB kann es natürlich wirklich eng werden, mit dem Plattenplatz für den Index.

Ich würde wirklich versuchen, den Index zu löschen, Plattenplatz erhöhen und Index neu erstellen.

 

 

Ohne Rang
25 Beiträge
Strucko Als Antwort am 29 Juli 2014 15:28
SchlechtSchlechtIn OrdnungIn OrdnungDurchschnittDurchschnittGutGutSehr gutSehr gut

Mir wird wohl nichts anderes übrigbleiben. :-(

Ich hoffe das das dann das Problem behebt...

Was mich nur wundert ist das alles Disk schon seit Wochen komplett indiziert waren und die Sache reibungslos lief.

Und dann von einem auf den anderen Tag...

 

 

Ohne Rang
25 Beiträge
Strucko Als Antwort am 5 Aug. 2014 13:22
SchlechtSchlechtIn OrdnungIn OrdnungDurchschnittDurchschnittGutGutSehr gutSehr gut

Hallo Zusammen,

so mein System läuft wieder. Habe das mit Hilfe der MS Hotline hinbekommen.

Das Problemen war die Index-Partition. Die kann nicht mehr als 10.000.000 Einträge aufnehmen.  Habe also den vorhandenen Index löschen müssen und einen zweite Partition angelegt. --> http://blogs.technet.com/b/speschka/archive/2012/12/02/adding-a-new-search-partition-and-replica-in-sharepoint-2013.aspx

Jetzt geht es mit "Full Crawl" über alle Disks weiter. Laut MS ist es wohl aufwändiger Einträge von einer Index-Partition in eine andere zu migrieren, deshalb sei der Neuaufbau des Indes die schnellere Variante.

Strucko

Ohne Rang
23 Beiträge
chnollu Als Antwort am 21 Aug. 2014 12:52
SchlechtSchlechtIn OrdnungIn OrdnungDurchschnittDurchschnittGutGutSehr gutSehr gut

Wir hatten das gleiche Problem. Das Problem ist hier, dass es eine DB-Variable gibt welche vom Typ int ist. Diese Variable definiert eine Table-ID. Sobald die Fassgrösse der Variable von der ID überschritten wird können keine neuen Entries mer gecrawled werden. Das Problem wird laut Microsoft mit dem SP1 update behoben. Mit etwas Glück und guten beziehungen kann man allerdings auf eine "Hot-Fix" von Microsoft hoffen oder mutige können die Variable auch selber anpassen (kein Support mehr von Microsoft danach)...