Zum Inhalt wechseln


Foto

CH.GPX, GSAK und POI's


Achtung: Altes Thema!
Guest, der letzte Beitrag zu diesem Thema ist nun schon über 180 Tage alt. Überleg dir bitte, ob es nicht besser wäre ein neues Thema zu eröffnen, statt hier rein zu schreiben!


  • Please log in to reply
82 Antworten in diesem Thema

#41 OFFLINE   Znuk

Znuk

    Foren-Wahnsinniger

  • Members
  • PIPPIPPIPPIPPIPPIPPIP
  • 1744 Beiträge
  • 54 Bedankungen
  • Geschlecht:Mann
  • Wohnort:Bettlach

Geschrieben 06.10.2010 - 19:10

-Du kannst das Resultat deiner PQ überprüfen schon bevor sie erstellt wurden (preview Pocket Query), ist er dort auch nicht vorhanden?

Nein!

-Hat dein Filter mehr als 1000 caches als Resultat ?

Nein <1000

-Hast du im GSAK deine Owner ID eingetragen ? (Tools=>Options=>General)

Ja

Ich persönlich habe immer noch 500er PQ weil ich sie so direkt über die Mailbox abholen kann. Über 500-PQs werden ja bekanntlich nur noch als Link verschickt und müssen manuell downloaded werden.
Aber das ist Bequemlichkeit und hat nix mit deinem problem zu tun.


Hmmm... Evtl. doch. Falsch ist, dass nichts versandt wird. Ich habe sehr wohl Mails gekriegt, weil sonst hätte ich ja keine Zips importieren können im GSAK?

Ich hab jetzt aber versuchsweise mal probiert zwei 500er Abfragen zu machen, aber dem Zeitraum. Und siehe da. Dieser Cache ist dabei! Jetzt will ich mal vergleichen wieviele Caches total neu dazukommen.
Znuk @ geocaching.com
Co-Autor auf Geoblog.ch - DAS Schweizer Geoquiz!!

#42 OFFLINE   gzxto

gzxto

    Forenseeker

  • Members
  • PIPPIPPIPPIPPIP
  • 704 Beiträge
  • 20 Bedankungen
  • Geschlecht:Mann
  • Wohnort:Jonen

Geschrieben 06.10.2010 - 20:03

Hmmm... Evtl. doch. Falsch ist, dass nichts versandt wird. Ich habe sehr wohl Mails gekriegt, weil sonst hätte ich ja keine Zips importieren können im GSAK?

-bis 500 ==> Mails werden mit den PQ im attachement geschickt und können automatisiert via pop3 abgeholt und importiert werden
Nachteil: es müssen doppelt soviele PQ erstellt werden.

-über 500 ==> Mail enthält nur link zu den PQ's diese müssen dann manuell runtergeladen und ins GSAK importiert werden
Nachteil: 1. manueller prozess, 2. PQ werden nach 7 Tagen entfernt, wenn ich sie nicht jede Woche runter lade verliere ich Informationen ( lückenlose log history der Cache)


Ich hab jetzt aber versuchsweise mal probiert zwei 500er Abfragen zu machen, aber dem Zeitraum. Und siehe da. Dieser Cache ist dabei! Jetzt will ich mal vergleichen wieviele Caches total neu dazukommen.

Begreif ich nicht :wacko: wenn du 1000 PQ machst und das Resultat nicht über 1000 ist sollten auch alle die im Filter zutreffen enthalten sein :(

Bearbeitet von gzxto, 06.10.2010 - 20:04.

\\// Live long and prosper! \\//

#43 OFFLINE   Berner

Berner

    Forumsbewohner

  • Members
  • PIPPIPPIPPIP
  • 414 Beiträge
  • 7 Bedankungen
  • Geschlecht:Mann
  • Wohnort:Moosseedorf
  • Interessen:http://goo.gl/afVJC

Geschrieben 31.10.2010 - 21:36

Ich habe ca 25 PQ mit allen Caches in der CH gemacht, 500er. Heute merkte ich unterwegs das einige fehlten. Zu Hause schaute ich wieso das wohl so ist. In den PQ sind diese aber auch nicht!? Werden also nicht geladen.
Hast du Znuk das Problem lösen können?
Danke für die Tipps
LG
Berner

#44 OFFLINE   Znuk

Znuk

    Foren-Wahnsinniger

  • Members
  • PIPPIPPIPPIPPIPPIPPIP
  • 1744 Beiträge
  • 54 Bedankungen
  • Geschlecht:Mann
  • Wohnort:Bettlach

Geschrieben 31.10.2010 - 22:45

Hmmm gute Frage. Ich weiss es nicht.

Ich habe mittlerweile anstelle der 1'000er PQ auch ca.25 mit 500 erstellt, damit das per Email bene funktioniert.

Das tut es auch.

Der weiter oben erwähnten Cache ist in meiner DB enthalten, ich habe allerdings keine Ahnung ob er ausschliesslich wegen der "My Find" Statistik drin ist, oder ob er auch via Mails gesandt wird. Im Moment vermisse ich keinen. Was wir vielleicht mal vergleichen können: Wieviele Käschs zeigts Euch total an? Bei mir sinds 374 gefundene, 10840 weisse, 363 disablete und 3 eigene. Abzüglich der 7 ausländischen gäbe das 11'573 CH Cäches.

Wieviel habt Ihr?
Znuk @ geocaching.com
Co-Autor auf Geoblog.ch - DAS Schweizer Geoquiz!!

#45 OFFLINE   neisgei

neisgei

    Forumauswendigkenner

  • Members
  • PIPPIPPIPPIPPIP
  • 660 Beiträge
  • 48 Bedankungen
  • Geschlecht:Mann
  • Wohnort:Aeugst am Albis (ZH)

Geschrieben 11.05.2011 - 21:11

Ich habe gerade meine PQ's überprüft und neue erstellt. Mit schrecken habe ich festgestellt, dass ich auch ein Datumsloch hatte. Wie sieht eure Schweiz-Einteilung momentan aus? Das GSAK Makro schlägt mir volgendes vor:

Placed by date PQ Generation
PQ From To Count Done
01 21.07.2001 18.04.2008 990
02 19.04.2008 04.10.2008 988
03 05.10.2008 02.05.2009 983
04 03.05.2009 29.08.2009 990
05 30.08.2009 19.01.2010 989
06 20.01.2010 21.05.2010 976
07 22.05.2010 28.08.2010 985
08 29.08.2010 11.12.2010 986
09 12.12.2010 18.03.2011 982
10 19.03.2011 Maximum date 839

Insgesamt habe ich derzeit 9700 plus/minus Waypoints in meiner DB. Was habt ihr?

Ich bin etwas verunsichert wie das mit den PQ's nochmals "richtig" konfiguriert wird. Gabs nicht irgendwo eine Erklärung aller Einstellungen für eine PQ, wenn man die wie oben in so Zeitslices einteilt?

Ich pröble grad an einem PQ rum, das täglich erzeugt werden soll mit den aktuellsten Änderungen. "Found in the last 7 days" und "Updated in the last 7 days" ist mir nicht ganz klar. Gibt denn ein "Found in the last 7 days" nicht auch automatisch ein "Updated in the last 7 days"? Found ist klar = Logeintrag. Update = (nur Listingupdate? Keine Logs zusätzlich?) Und ganz neue bekomme ich mit Updated? Hui, uiui.

Bearbeitet von neisgei, 11.05.2011 - 21:12.

GeoMaps Das Umrechnungs- und Karten Tool für geocaching.com
Folge GeoMaps auf Twitter.

#46 OFFLINE   Frienisberger

Frienisberger

    Forum-Füller

  • Members
  • PIPPIP
  • 50 Beiträge
  • 4 Bedankungen
  • Geschlecht:Mann
  • Wohnort:Grossraum Bern

Geschrieben 12.05.2011 - 06:41

Insgesamt habe ich derzeit 9700 plus/minus Waypoints in meiner DB. Was habt ihr?


Also ganz genau weiss ich es auswendig nicht, aber inkl. Funde sind es über 11'000.

Ich habe mittlerweile 27 PQ's (500er), eines davon läuft täglich und bringt die 500 nächsten rund um die Home-Koordinaten (inkl. der Eigenen).

Gruss Frienisberger

#47 OFFLINE   Znuk

Znuk

    Foren-Wahnsinniger

  • Members
  • PIPPIPPIPPIPPIPPIPPIP
  • 1744 Beiträge
  • 54 Bedankungen
  • Geschlecht:Mann
  • Wohnort:Bettlach

Geschrieben 12.05.2011 - 07:14

Also ganz genau weiss ich es auswendig nicht, aber inkl. Funde sind es über 11'000.

Ich habe mittlerweile 27 PQ's (500er), eines davon läuft täglich und bringt die 500 nächsten rund um die Home-Koordinaten (inkl. der Eigenen).

Gruss Frienisberger



Ich machs mittlerweile anders: Ich habe 13 "Tradi" Pocket Queries, welche mir nur Traditional, Earth- Virtual- und Webcam Caches importiert.

Dann importiere ich manuell gelöste Mysteries und auf Wunsch Multis.

Es hatte mir schlicht zuviele Waypoints auf dem GPS, mit welchen ich nichts anfangen kann.
Znuk @ geocaching.com
Co-Autor auf Geoblog.ch - DAS Schweizer Geoquiz!!

#48 OFFLINE   gzxto

gzxto

    Forenseeker

  • Members
  • PIPPIPPIPPIPPIP
  • 704 Beiträge
  • 20 Bedankungen
  • Geschlecht:Mann
  • Wohnort:Jonen

Geschrieben 12.05.2011 - 07:14

Ich habe gerade meine PQ's überprüft und neue erstellt. Mit schrecken habe ich festgestellt, dass ich auch ein Datumsloch hatte. Wie sieht eure Schweiz-Einteilung momentan aus? Das GSAK Makro schlägt mir volgendes vor:

Placed by date PQ Generation
PQ From To Count Done
01 21.07.2001 18.04.2008 990
02 19.04.2008 04.10.2008 988
03 05.10.2008 02.05.2009 983
04 03.05.2009 29.08.2009 990
05 30.08.2009 19.01.2010 989
06 20.01.2010 21.05.2010 976
07 22.05.2010 28.08.2010 985
08 29.08.2010 11.12.2010 986
09 12.12.2010 18.03.2011 982
10 19.03.2011 Maximum date 839

Insgesamt habe ich derzeit 9700 plus/minus Waypoints in meiner DB. Was habt ihr?

Ich bin etwas verunsichert wie das mit den PQ's nochmals "richtig" konfiguriert wird. Gabs nicht irgendwo eine Erklärung aller Einstellungen für eine PQ, wenn man die wie oben in so Zeitslices einteilt?

Ich pröble grad an einem PQ rum, das täglich erzeugt werden soll mit den aktuellsten Änderungen. "Found in the last 7 days" und "Updated in the last 7 days" ist mir nicht ganz klar. Gibt denn ein "Found in the last 7 days" nicht auch automatisch ein "Updated in the last 7 days"? Found ist klar = Logeintrag. Update = (nur Listingupdate? Keine Logs zusätzlich?) Und ganz neue bekomme ich mit Updated? Hui, uiui.

Keep it simple
Das einzige was du filtern musst sind die founds (die bekommst du mit
den myfinds) und die ignorelist falls du solche hast. Finger weg von
den 7 days not updated aus folgendem grund:
Wenn du alle 7 Tage updatest ist die einzige effektive Methode um
archiverte zu erkennen dass du ein Gsak filter "Gpx update älter als 8
Tage" machst und das resultat löscht oder in eine andere "deleted" DB kopierst.

Du hast viel zuwenig in der DB . Ich hab das Sackmesser gerade nicht
bei mir, aber Znuk lag im september sicher richtig, heute sinds schon
wieder mehr.

Das mit dem einteilungmacro funtz nur wenn du alle gewüschten caches
schon in der db hast.
Die strategie wäre dass du einmal verschwenderisch mit den Zeiträumen
umgehst und dadurch sicherstellst dass du alle caches in die db
kriegst. Nacher das macro laufen lassen um die finalen pq's zu machen.
Dann dies alle paar monate wiederholen um zu optimieren.


Ich mache übrigens auch 500er dass sie via Mail geliefert werden. Das
mit den anzahl PQ's zu vergleichen bringt nicht viel, je nach Anzahl finds
sehen die anders aus. Ich brauche 27 500er bei 1890 gefundenen.
Dasaktuellste PQ läuft immer 2 bis drei mal pro woche um die neusten immer zu haben

Bearbeitet von gzxto, 12.05.2011 - 07:22.

\\// Live long and prosper! \\//

#49 OFFLINE   neisgei

neisgei

    Forumauswendigkenner

  • Members
  • PIPPIPPIPPIPPIP
  • 660 Beiträge
  • 48 Bedankungen
  • Geschlecht:Mann
  • Wohnort:Aeugst am Albis (ZH)

Geschrieben 12.05.2011 - 07:46

Merci für die ausführliche Antwort!

Keep it simple
Das einzige was du filtern musst sind die founds (die bekommst du mit
den myfinds) und die ignorelist falls du solche hast. Finger weg von
den 7 days not updated aus folgendem grund:
Wenn du alle 7 Tage updatest ist die einzige effektive Methode um
archiverte zu erkennen dass du ein Gsak filter "Gpx update älter als 8
Tage" machst und das resultat löscht oder in eine andere "deleted" DB kopierst.

Ok, glaube soweit hab ich das verstanden. Ich filtere bei den Datums-Querys nichts, nicht mal meine founds. Was aber eigentlich nicht schlimm ist oder? Ich habe dann halt einfach die aktuellsten Logs auf den Caches die ich auch geloggt habe. Bei mir sinds so wenige, da macht das Anzahlmässig noch nichts aus ;)

Ich mache übrigens auch 500er dass sie via Mail geliefert werden. Das
mit den anzahl PQ's zu vergleichen bringt nicht viel, je nach Anzahl finds
sehen die anders aus. Ich brauche 27 500er bei 1890 gefundenen.
Dasaktuellste PQ läuft immer 2 bis drei mal pro woche um die neusten immer zu haben

Aber mit den 27 PQ's wirds wohl langsam knapp, Du hast noch 8 übrig bis 35. Wie genau ist denn Dein "aktuellste PQ" konfiguriert (dasjeniege was bei dir 2-3mal läuft)? Gäbe es denn eine PQ Konfiguration, die alles Aktualisierte (Logs, Listing) der letzten 7 Tage holt? Anders gefragt; wie bleibe ich Tagesaktuell (wenn ich das denn wollte)?

Wenn es die PQ geben würde, die alle Aktualisierungen bringt, dann müsste man ja EIGENTLICH nur einmal die Datumsbereichs-PQ's holen und einspielen und die Aktualisierungen würden dann eben mit diesem einen PQ gemacht. Geht das denn nicht?
GeoMaps Das Umrechnungs- und Karten Tool für geocaching.com
Folge GeoMaps auf Twitter.

#50 OFFLINE   gzxto

gzxto

    Forenseeker

  • Members
  • PIPPIPPIPPIPPIP
  • 704 Beiträge
  • 20 Bedankungen
  • Geschlecht:Mann
  • Wohnort:Jonen

Geschrieben 12.05.2011 - 11:42

Ok, glaube soweit hab ich das verstanden. Ich filtere bei den Datums-Querys nichts, nicht mal meine founds. Was aber eigentlich nicht schlimm ist oder

Bei mir spare ich 4 500er queries, aber stimmt ausser dass du ein bisschen verschwendest macht es nix

Aber mit den 27 PQ's wirds wohl langsam knapp, Du hast noch 8 übrig bis 35.

Immer noch genügend um PQ’s für z.B, Wochenend Trips nach DE zu machen

Wie genau ist denn Dein "aktuellste PQ" konfiguriert (dasjeniege was bei dir 2-3mal läuft)?

Gleich wie die anderen auch, der Datumsrange endet einfach in der Zukunft. Sobald dieses 500 erreicht wir der aktuelle Range fixiert und ein neues erstellt. Weil wir vorallem Wochenendcacher sind laufen diese kurz davor um sicher zustellen dass die neusten Caches bei der planung im Map Source sehen. Es geht weniger um die neusten logs sondern dass man die neusten Caches hat .


Wenn es die PQ geben würde, die alle Aktualisierungen bringt, dann müsste man ja EIGENTLICH nur einmal die Datumsbereichs-PQ's holen und einspielen und die Aktualisierungen würden dann eben mit diesem einen PQ gemacht. Geht das denn nicht?

Du kannst natürlich ein PQ über die ganze CH machen „Updated in the last 7 days“ doch dieses wäre extrem variabel, so dass in einer schönen Woche über 1000 Caches betroffen sein würden. Du müsstest die CH irgendwie wieder aufteilen.
Und dann noch das grösste Problem ….die archivierten zu erkennen… Die archivierten erscheinen einfach nicht mehr im GPX file und genau so erkennst du sie und entfernst sie. Wenn ein Cache über eine Woch nicht mehr ein einem deiner PQ’s erscheint ist er archiviert.
Wenn du nur noch die „Updated in the last 7 days“ caches hättest geht dieser Mechanismus nicht mehr.

Es ist einfach so… die PQ wurden nicht für GSAK gemacht, wir machen einfach das beste daraus ……und hoffen auf ein API das endlich kommt
\\// Live long and prosper! \\//

#51 OFFLINE   neisgei

neisgei

    Forumauswendigkenner

  • Members
  • PIPPIPPIPPIPPIP
  • 660 Beiträge
  • 48 Bedankungen
  • Geschlecht:Mann
  • Wohnort:Aeugst am Albis (ZH)

Geschrieben 12.05.2011 - 12:15

Besten Dank! Ich denke nun habe ich das kapiert. Speziell das mit den Archivierten ist nun klar, warum man das eigentlich so machen muss.

Grummel, nachdem ich alles auf 1000er umgestellt habe überlege ich mir es tatsächlich auch wieder 500er via E-Mail zu nehmen. Das handling ist halt schon etwas bequemer. Aber ich weiss nicht ob ich es mag, dass mir dann nur eine PQ "Reserve" pro Tag reicht... ich muss mir das mal gaaaaanz genau abwägen.
GeoMaps Das Umrechnungs- und Karten Tool für geocaching.com
Folge GeoMaps auf Twitter.

#52 OFFLINE   Znuk

Znuk

    Foren-Wahnsinniger

  • Members
  • PIPPIPPIPPIPPIPPIPPIP
  • 1744 Beiträge
  • 54 Bedankungen
  • Geschlecht:Mann
  • Wohnort:Bettlach

Geschrieben 12.05.2011 - 12:25

Ich weiss nicht ob mein Posting von heute beachtet wurde, aber das Problem der "eine PQ pro TAG Reserve" hab ich damit auch gelöst.


Besten Dank! Ich denke nun habe ich das kapiert. Speziell das mit den Archivierten ist nun klar, warum man das eigentlich so machen muss.

Grummel, nachdem ich alles auf 1000er umgestellt habe überlege ich mir es tatsächlich auch wieder 500er via E-Mail zu nehmen. Das handling ist halt schon etwas bequemer. Aber ich weiss nicht ob ich es mag, dass mir dann nur eine PQ "Reserve" pro Tag reicht... ich muss mir das mal gaaaaanz genau abwägen.



Ich machs mittlerweile anders: Ich habe 13 "Tradi" Pocket Queries, welche mir nur Traditional, Earth- Virtual- und Webcam Caches importiert.

Dann importiere ich manuell gelöste Mysteries und auf Wunsch Multis.

Es hatte mir schlicht zuviele Waypoints auf dem GPS, mit welchen ich nichts anfangen kann.


Znuk @ geocaching.com
Co-Autor auf Geoblog.ch - DAS Schweizer Geoquiz!!

#53 OFFLINE   neisgei

neisgei

    Forumauswendigkenner

  • Members
  • PIPPIPPIPPIPPIP
  • 660 Beiträge
  • 48 Bedankungen
  • Geschlecht:Mann
  • Wohnort:Aeugst am Albis (ZH)

Geschrieben 12.05.2011 - 12:56

Ich weiss nicht ob mein Posting von heute beachtet wurde, aber das Problem der "eine PQ pro TAG Reserve" hab ich damit auch gelöst.


Ich möchte halt alles komplett im GSAK haben. Ich versteh Dich glaub nicht ganz, aber ich möchte ja nicht nur die Tradis in GSAK haben. Auf dem GPS ists dann wieder eine andere Geschichte.
GeoMaps Das Umrechnungs- und Karten Tool für geocaching.com
Folge GeoMaps auf Twitter.

#54 OFFLINE   FamWa

FamWa

    Forum-Fan

  • Supporter Plus
  • 155 Beiträge
  • 2 Bedankungen
  • Geschlecht:-
  • Wohnort:Pratteln

Geschrieben 12.05.2011 - 13:18

Besten Dank! Ich denke nun habe ich das kapiert. Speziell das mit den Archivierten ist nun klar, warum man das eigentlich so machen muss.

Grummel, nachdem ich alles auf 1000er umgestellt habe überlege ich mir es tatsächlich auch wieder 500er via E-Mail zu nehmen. Das handling ist halt schon etwas bequemer. Aber ich weiss nicht ob ich es mag, dass mir dann nur eine PQ "Reserve" pro Tag reicht... ich muss mir das mal gaaaaanz genau abwägen.


Bevor du umstellst schau dir mal pqdl an. Ich benutze das Tool seit Monaten um meine PQs automatisch herunterzuladen. Ich habe mir eine kleine Prozedur geschrieben, welche pqdl mit meinen Parametern startet, so dass nur die neuen PQs heruntergladen werden etc.. Nach dem Download starte ich GSAK und importiere :D :D .
Da pqdl immer eien PQ lädt, habe ich auch kein übermässig schlechtes Gewissen von wegen Zugriff mit einer Software. Interaktiv kann ich den Download von mehreren PQs parallel anstossen und belaste so den GS Server mindestens so stark.

So long,
FamWa

#55 OFFLINE   gzxto

gzxto

    Forenseeker

  • Members
  • PIPPIPPIPPIPPIP
  • 704 Beiträge
  • 20 Bedankungen
  • Geschlecht:Mann
  • Wohnort:Jonen

Geschrieben 12.05.2011 - 13:42

Seh ich auch so, in GSAK immer alle Caches, für den export aufs oregon hab ich dann ein kombinierter Filter
-Alle Tradis bis und mit T4 (weil ich kein kletterer bin)
-Mysteries mit correctet cordinates (gelöst)
-Multis die in den UserNotes ein Kommentar haben. Will heissen ich habe mal bestimmt dass wir die machen wollen
Ein Knopfdruck generiert dann die Liste, bei mir ca 5400 Caches also nur 400 zuviel fürs 550er Oregon

Das PQdl hab ich auchmal angeschaut, doch es hat gegenüber dem Mail auch den Nachteil dass es mindestens einmal die Woche laufen gelassen werden muss sonst sind die älteren PQ auf dem Server Weg. und es ist halt illegal
\\// Live long and prosper! \\//

#56 OFFLINE   Salbedo

Salbedo

    Forum-Fan

  • Members
  • PIPPIPPIP
  • 176 Beiträge
  • 4 Bedankungen

Geschrieben 12.05.2011 - 15:05

Hallo zusammen

Ich lade meine 1000er PQ's mit DownThemAll (FireFox Erweiterung) runter, da kann man einen Filter einstellen und dann werden mit 3 Klicks alle von der Site runtergeladen.

Wenn mann dann noch ein Tastenkürzel (z.b. F5) für den Load im GSAK einstellt ist man recht zügig. Aber man muss es halt doch häufiger machen als via Mail.

Gruess Salbedo

#57 OFFLINE   Znuk

Znuk

    Foren-Wahnsinniger

  • Members
  • PIPPIPPIPPIPPIPPIPPIP
  • 1744 Beiträge
  • 54 Bedankungen
  • Geschlecht:Mann
  • Wohnort:Bettlach

Geschrieben 12.05.2011 - 15:57

Ich möchte halt alles komplett im GSAK haben. Ich versteh Dich glaub nicht ganz, aber ich möchte ja nicht nur die Tradis in GSAK haben. Auf dem GPS ists dann wieder eine andere Geschichte.



Nö nicht nur die Tradies. Ich will in GSAK

- Tradies (automatisch, alle 7 Tage)
- Webcams (dito)
- Earthcaches (dito)
- Virtuals (dito)
- gelöste Misteries (werden manuell ins GSAK genommen, nur wenn ich ihn gelöst habe. Plus Corrected Coordinates)
- WunschMulties (ich lade nur die welche ich machen will)

Falls ich mal spontan irgendwo hinfahre, kann ich die Region setzen und alles laden was im Umkreis von 5-10 Km ist. Und muss nicht noch gross selektieren, welche Multies will ich jetzt machen, welche Misteries kann ich noch lösen? Was gibts noch was gibts nicht mehr.
Znuk @ geocaching.com
Co-Autor auf Geoblog.ch - DAS Schweizer Geoquiz!!

#58 OFFLINE   wizzzzard

wizzzzard

    Berufsposter

  • Members
  • PIPPIPPIPPIP
  • 323 Beiträge
  • 16 Bedankungen
  • Geschlecht:Mann

Geschrieben 13.05.2011 - 09:17

ich habe mittlerweile 16 1000er PQs, die mind 1 x pro woche laufen Eingefügtes Bild
sie sind wie folgt parametrisiert:
any type
any container
that (nichts angekreuzt)
diff >= 1
terr >= 1
within countries = switzerland
from origin (none selected)
placed during 01.januar2001 - 04.november 2005 (für CH-01)
und die daten der PQs bestimme ich mit der GSAKmakro.
der letzte PQ (CH-14) hat ein datum in der zukunft und den passe ich an, wenn GSAK bei der 1000er grenze motzt.
die CH-T5 sind auch speziell, da es mit einem radius über die ch-grenzen raus sucht.

täglich läuft "CH-NotFound". damit wird sichergestellt, dass alle neuen schweizweit in der DB angelegt werden.

leider klappt's mit den temp.disabled, die dann archiviert werden mit dem status nicht.
also mache ich bei einem bier einen manuellen update, bei dem ich alle temp.unavail. via die onlinepage den status verifiziere und ggf ein gpx runterlade. diese GPXs importiere ich anschliessend, was den status updated (archiviert oder wieder verfügbar)
die archivierten move ich dann in eine separate DB rüber.

wenn ich nun noch einen weiteren PQ benötige (ferien), dann disable ich einen der CH-xx und habe wieder platz um ihn laufen zu lassen.

wenn ich nun irgendwo hin gehe (CH) setze ich entweder einen cache dort als mittelpunkt und mache einen 15km-radius oder mache via die polygon möglichkeit einen angepassten ausschnitt.
diese kommen dann aufs 60er und einen grösseren radius (25km) lade ich auf's iPhone (Geosphere). so bin ich flexibel und habe alle infos offline bei mir.

viel spass beim 'nachbauen' :blush:
__________________________________________________________________________
liebe Grüsse aus Zürich und happy caching

#59 OFFLINE   wizzzzard

wizzzzard

    Berufsposter

  • Members
  • PIPPIPPIPPIP
  • 323 Beiträge
  • 16 Bedankungen
  • Geschlecht:Mann

Geschrieben 13.05.2011 - 09:23

kleiner nachtrag:
POIs mache ich mit allen gefundenen aus einem "My Finds" request, aus dem ich auch die statistik generiere.
da die POIs in der grösse nicht beschränkt sind, sind diese (fast) aktuell im tschiipii und natürlich auch im phoni
__________________________________________________________________________
liebe Grüsse aus Zürich und happy caching

#60 OFFLINE   gzxto

gzxto

    Forenseeker

  • Members
  • PIPPIPPIPPIPPIP
  • 704 Beiträge
  • 20 Bedankungen
  • Geschlecht:Mann
  • Wohnort:Jonen

Geschrieben 13.05.2011 - 18:49

täglich läuft "CH-NotFound". damit wird sichergestellt, dass alle neuen schweizweit in der DB angelegt werden.

Funktionert das zuverlässig ? Was ist wenn der Cache bevor der PQ läuft schon Published und gefunden wurde ? Ist ja nicht unmöglich bei all diesen FTF Huntern geht das schnell.
Ich glaube ein in die Zukunft offener Placed Datumsrange ist zuverlässiger.

leider klappt's mit den temp.disabled, die dann archiviert werden mit dem status nicht.
also mache ich bei einem bier einen manuellen update, bei dem ich alle temp.unavail. via die onlinepage den status verifiziere und ggf ein gpx runterlade. diese GPXs importiere ich anschliessend, was den status updated (archiviert oder wieder verfügbar)

Wenn die PQ Wöchendlich gemacht werden findest du die Archiverten zuverlässig mit einem "Last GPX Update not during the last 8 Days" Filter. Die Temp disabled bleiben dabei schön drin. Das filtern und den move in die deleted DB mach ich mit diesem Macro
\\// Live long and prosper! \\//



Achtung: Altes Thema!
Guest, der letzte Beitrag zu diesem Thema ist nun schon über 180 Tage alt. Überleg dir bitte, ob es nicht besser wäre ein neues Thema zu eröffnen, statt hier rein zu schreiben!



Besucher die dieses Thema lesen: 0

Mitglieder: 0, Gäste: 0, unsichtbare Mitglieder: 0