Schrift
[thread]2338[/thread]

xhtml als text/xml in IE6



<< |< 1 2 >| >> 11 Einträge, 2 Seiten
kristian
 2007-03-18 10:42
#25105 #25105
User since
2005-04-14
684 Artikel
BenutzerIn
[Homepage] [default_avatar]
Hallo

Laut W3C ist eine valide XHTML-Datei als XML deklarierbar.
Ich nehme eine XHTML-Datei speichere sie mit der Endung .xml, der Server gibt das mit dem Document-Type text/xml aus
Die Anzeige funktioniert auch mit den Browsern die ich getestet habe, bis auf den IE6 der zeigt mir die XML-Struktur.
Kennt einer den Hack den ich brauche, damit auch der IE6 die Seite zeigt?

TIA & Gruss
Kristian
GwenDragon
 2007-03-18 13:07
#25106 #25106
User since
2005-01-17
14741 Artikel
Admin1
[Homepage]
user image
Der IE und andere Browser sind immer noch ziemlich buggy bei XML und XHTML.

http://schneegans.de/web/xhtml/
Lies mal bei text/html oder application/xhtml+xml oder application/xml oder text/xml?

Sinnvoller, jedenfalls bei den meisten älteren Browsern oder IEs ist wohl:
Content-type: text/html\n\n

<!--EDIT|GwenDragon|1174216306-->
kristian
 2007-03-18 13:28
#25107 #25107
User since
2005-04-14
684 Artikel
BenutzerIn
[Homepage] [default_avatar]
Hallo

> Der IE ist immer noch ziemlich buggy

War eigentlich ne ganz einfache Seite ohne gossartige Formatierungen und dergleichen.
text/xml muss ich in dem Falle dranschreiben, da es ein Fake für bzw. gegen eine ungewünschte Anwendung ist.
Schade, war wohl zu leicht...

Na dann werde ich die Gelegenheit mal nutzen und mich in XML XLS(T) DTD einlesen und hoffen, dass ich das Ziel damit erreiche.

Danke & Gruss
Kristian
GwenDragon
 2007-03-18 15:02
#25108 #25108
User since
2005-01-17
14741 Artikel
Admin1
[Homepage]
user image
[quote=kristian,18.03.2007, 12:28]> Der IE ist immer noch ziemlich buggy[/quote]
Es gibt hier für Zitate den Quote-Button ;) oder die BBCode-Tags (ohne Leerzeichen dazwischen ;) ) [ QUOTE ] und [ /QUOTE ]

[quote=kristian,18.03.2007, 12:28]text/xml muss ich in dem Falle dranschreiben, da es ein Fake für bzw. gegen eine ungewünschte Anwendung ist.[/quote]
Warum ein Fake oder gegen unerwünschte Anwendung?\n\n

<!--EDIT|GwenDragon|1174223031-->
kristian
 2007-03-18 18:44
#25109 #25109
User since
2005-04-14
684 Artikel
BenutzerIn
[Homepage] [default_avatar]
Hallo

Quote
Es gibt hier für Zitate den Quote-Button


Schau, ich bin lernfähig. ;-)

Quote
Warum ein Fake oder gegen unerwünschte Anwendung?


Diese Anwendung liest Webseiten, ändert Links, CSS, Script etc. wird unter dem Deckmantel eines anonymen Proxies betrieben und macht uns viel Ärger, da der Content nachher bei G**gle unter der falschen Domain auftaucht, was für den eigentlichen Betreiber Umsatzverlust bedeutet.
Man kann das aushebeln indem man text/xml sagt.
Dies ist aber nur sinnig, wenn man die Biester vorher anhand der IP erkannt hat.
Ich wollte einen Schritt weiter und in alle Seiten per IFRAME oder OBJEKT ein wenig XML + JavaScript einbasteln um - bei (noch) unbekannten IP's - "on the Fly" reagieren zu können.
Es funktioniert, allerdings leider nur mit dem Firefox. (20% Lösung)
Es ist ärgerlich :-(

Gruss
Kristian
ptk
 2007-03-18 19:01
#25110 #25110
User since
2003-11-28
3645 Artikel
ModeratorIn
[default_avatar]
Solltest du nicht lieber robots.txt verwenden?

Und firefox wäre bei meinen Websites immerhin eine 50%-Lösung. Oder habt ihr noch zu viele MSIE-Zugriffe?
GwenDragon
 2007-03-18 19:09
#25111 #25111
User since
2005-01-17
14741 Artikel
Admin1
[Homepage]
user image
Quote
Dies ist aber nur sinnig, wenn man die Biester vorher anhand der IP erkannt hat.
Und kannst du die nicht per .htaccess ausschließen?

Die Robots.txt nutzt nix. Es gibt ja auch Spider und Harvester, die scheren sich nicht darum - logisch.
kristian
 2007-03-18 19:25
#25112 #25112
User since
2005-04-14
684 Artikel
BenutzerIn
[Homepage] [default_avatar]
Hallo

Quote
Und kannst du die nicht per .htaccess ausschließen?


Der 403 bringt nicht ganz soviel.
Ich redirecte im Moment alles per .htaccess auf einen zentralen Server, wo geloggt wird, diesen Anwendungen die entsprechende Seite aufbereitet wird, mit Backlink und Refresh auf die richtige Seite. Andere Anwendungen (Pseudobots) dürfen dort - natürlich nur zur Kontrolle, nicht als Strafe - 2 Minuten verweilen. (Teergrube)

Nachtrag:
Bei dem was ich im Moment bastele, geht es mir um das Erkennen dieser "Proxies", ich kann in der .htaccess ja nur bedienen was ich kenne und da zählt hauptsächlich die IP.

Gruss
Kristian\n\n

<!--EDIT|kristian|1174239450-->
kristian
 2007-03-18 19:28
#25113 #25113
User since
2005-04-14
684 Artikel
BenutzerIn
[Homepage] [default_avatar]
Hallo

Quote
Und firefox wäre bei meinen Websites immerhin eine 50%-Lösung


Ich denke ich werde es abhängig vom UA einbauen.
Die UserAgenten sind zwar auch oft gelogen, aber bei der Anwendung um die es geht, wird der des echten Users sehr oft durchgeschleift.
50% wäre toll, ich habe aber keinen Überblick, da ich nicht von allen Seiten die Statistiken einsehen kann.

Gruss
Kristian\n\n

<!--EDIT|kristian|1174239066-->
ptk
 2007-03-18 20:21
#25114 #25114
User since
2003-11-28
3645 Artikel
ModeratorIn
[default_avatar]
[quote=GwenDragon,18.03.2007, 18:09]Die Robots.txt nutzt nix. Es gibt ja auch Spider und Harvester, die scheren sich nicht darum - logisch.[/quote]
Und warum sollten diese Spider nicht auch Seiten indexieren, die sich als text/xml ausweisen? Zumindest die "Großen" (Google, Yahoo, MSN) werden robots.txt beachten.
<< |< 1 2 >| >> 11 Einträge, 2 Seiten



View all threads created 2007-03-18 10:42.