Giusto per non aprire un altro /talk per due parole...
Effettivamente il Caronte traghettatore di anime (sara' iscritto al sindacato dei trasportatori?) non torna nemmeno a me!
Sugerirei:
Caronte (mitologia) oppure (personaggio mitologico).
Che ne dici?
Ciao
MassimoM
-------------------------------------------------
WebMail Tele2 http://www.tele2.it
-------------------------------------------------
Ciao Paolo,
benvenuto tra noi!
Posso chiederti subito una mano?
Sto facendo un po' manutenzione sulle pagine di servizio (http://it.wikipedia.com/wiki.cgi?Pagine_Di_Servizio), ma tante cose non le noto perche' ormai sono un po' ovvie visto che conosco wikipedia. Visto che tu sei appena arrivato, daresti una lettura (a quelle che ti possono interessare, chiaro) e poi mi segnali dubbi, domande, ecc.. Soprattutto le FAQ mi sembra che vadano molto ampliate...
Fammi sapere!
Ciao,
Frieda
ps: possiamo continuare a parlarne qui, o sulla mia pagina di talk (http://it.wikipedia.com/wiki.cgi?Frieda/Talk)
-----Original Message-----
From: Paolo Montanelli [mailto:p.montanelli@tiscali.it]
Sent: Thursday, July 24, 2003 6:57 PM
To: WikiIT-l(a)wikipedia.org
Subject: [WikiIT-l] Presentazione
Salve a tutti, mi chiamo Paolo Montanelli e sono uno studente di
linguistica.
Sebbene il mio campo principale di conoscenze riguardi la linguistica
e in particolar modo la fonetica, mi interesso di tantissime altre cose:
botanica, politica, religione, arte, misteri, geografia, antropologia,
informatica ecc.
Perciò ho deciso di dare a questo progetto il mio contributo!
Saluti,
Paolo Montanelli.
_______________________________________________
WikiIT-l mailing list
WikiIT-l(a)wikipedia.org
http://mail.wikipedia.org/mailman/listinfo/wikiit-l
Mi accorgo che il punto di domanda si e` perso.
Voleva essere:
C'e` da qualche parte un archivio compresso
con tutti gli articoli delle varie Wikipedie, oppure tocca
usare un "pericoloso" script per risucchiarne il contenuto?
Ciao, Andrea
Salve a tutti, mi chiamo Paolo Montanelli e sono uno studente di
linguistica.
Sebbene il mio campo principale di conoscenze riguardi la linguistica
e in particolar modo la fonetica, mi interesso di tantissime altre cose:
botanica, politica, religione, arte, misteri, geografia, antropologia,
informatica ecc.
Perciò ho deciso di dare a questo progetto il mio contributo!
Saluti,
Paolo Montanelli.
Certo che ne puoi parlare! Anzi, come Wikipediano, dovresti sentirti "moralmente obbligato" a parlarne... :-)))))))))))))
Se non l'hai gia' fatto, puoi acculturarti un po' a partire dalla pagina http://it.wikipedia.com/wiki.cgi?Wikipedia
Ciao,
Frieda
-----Original Message-----
From: Calogero Bonasia [mailto:kbonasia@mclink.net]
Sent: Thursday, July 24, 2003 10:30 AM
To: wikiit-l(a)wikipedia.org
Subject: Re: [WikiIT-l] anche il w3c.org ci linka...
>
> Elfrida Brioschi
> Network Program Management
una domanda: ma se io volessi "parlare" ad un seminario d it.wiki?
quali sono le prerogative... posso, non posso, se posso come? etc...
Kalos
_______________________________________________
WikiIT-l mailing list
WikiIT-l(a)wikipedia.org
http://mail.wikipedia.org/mailman/listinfo/wikiit-l
>
> Elfrida Brioschi
> Network Program Management
una domanda: ma se io volessi "parlare" ad un seminario d it.wiki?
quali sono le prerogative... posso, non posso, se posso come? etc...
Kalos
...anche se solo per la traduzione dell'articolo sull'XML:
http://www.w3.org/XML/1999/XML-in-10-points-translations.htm8
chissa' che qualcuno non arrivi per leggere l'articolo e rimanga invece affascinato dal progetto it.wiki!
Buona giornata a tutti,
Frieda
Elfrida Brioschi
Network Program Management
Vodafone Omnitel N.V.
via Lorenteggio, 270/a Milano
tel: +39024143.2047
E-mail: elfrida.brioschi(a)vodafone.com
Per fare una cosa tipo wikipedia in locale basta installare
un qualsiasi sistema wiki, ovvero serve un web server
(ad esempio apache) e il sistema wiki (ci sono implementazioni
in tutti i linguaggi: php, python, perl, ...).
Per avere una copia locale uguale alla nostra Wikipedia
invece c'e` da installare lo stesso sistema wiki che usa
la nostra Wikipedia naturalmente.
Per Tomi: c'e` da qualche parte un archivio compresso
con tutti gli articoli delle varie Wikipedie, oppure tocca
usare uno script per risucchiarne il contenuto. Per farlo
con uno script la persona sana di mente metterebbe
una temporizzazione in modo da lasciare un po' di
secondi tra un prelievo e l'altro, ma sarebbe un modo
molto infefficiente rispetto alla possibilita` di scaricare
il materiale compresso, che occuperebbe tre volte
meno spazio e banda.
Inoltre non sarebbe difficile preparare dei mirror
per il mega-archivio compresso.
Ciao, Andrea
Salve it.wiki.pedia.ne/i,
dal mio messaggio precedente (forse nel frattempo
qualcuno
ha risposto, ma in questo istante non l'ho letto,
sorry)
avrete letto i miei dubbi a rendere disponibili
alcuni programmini in Perl che ho scritto per
rendermi pi� gradevole lavorare al progetto.
Tenuto conto che il progetto mi interesssa,
ma che per motivi familiari potrei doverlo
semi-abbandonare
non mi dispacerebbe che gli script continuino
a rendersi utili.
prima di continuare, mi scuso per il post lungo
(chi volesse rispondere � pregato di tagliare tutto
ci�
che non serve alla risposta: ho un modem 28.8 :-)
e vi saluto (prima che abbandoniate la lettura :-))
Antonio (Tomi(a)it.wiki)
http://it.wikipedia.com/wiki.cgi?Tomihttp://it.wikipedia.com/wiki.cgi?Tomi/Talk
----
Riassumo i dubbi e poi abbozzo delle possibili
soluzioni
infine elenco gli script in ballo
Dubbi
=====
* robot in lettura, se usati da molti e male possono
mettere
in ginocchio il server
* robot in scrittura, possono distruggere il progetto
* temo in piccola parte i malinenzionati
* temo di pi� un uso bene intenzionato, ma non
corretto
* ci sono alcune funzionalit� non implementate che
diventano
necessarie se i pgm vengono usati da molte (una
decina?)
di persone.
Possibili risposte:
===================
* distribuisco solo versioni che sanno leggere
(download),
ma non quelle che sanno scrivere (upload)
* introduco una funzione di "pausa obbligatoria" di
una decina di sec.
* tolgo tutte le parti che si rivolgono alle wikipedie
sorelle
* tolgo le parametrizzazioni e rendo obbligatorio il
server
* rendo i default il meno dannosi possibili
* offusco le parti di codice che servono a proteggere
* gli script non vengono messi sul progetto ma ce li
passiamo
direttamente (non sulla mailing-list) evitando che
finiscano in mano a sconosciuti
(opensource non vuol dire "essere *obbligati* a
dare":-|
ma "essere *autorizzati* a dare")
ovviamente tutti gli script finirebbero sotto la GPL
e anche sotto la GNU FDL (per permetterne l'utilizzo
nelle pagine di it.wiki)
nonch� nei termini delle licenze di Perl
Inoltre:
========
* se il progetto ufficiale non li ha gi� messi a
disposizione,
metterei una volta al mese una copia zippata di
tutti
i file che ho localmente (99,1% identico al sito
ufficiale)
Attualmente zippati sono oltre 8 MegaByte.
Problema: se devo farlo io col modem 28.8 non
funzioner� mai :-(
* metto a disposizione in forma zippata la versione
"statica"
(vedi "localwiki" pi� sotto)
della parte html (dunque NON si pu� modificare,
ma nemmeno si vede il wiki-codice. In compenso c'�
la "ricerca"
(quella che si ottiene cliccando sul titolo della
pagina)
Attualmente non funzionano le sottopagine, ma si pu�
ovviare.
* visto che diversi di voi sono informatici, forse
qualcuno
ha la disponibilit� di un sito con Perl. In tal
caso si potrebbe mettere la un mirror da far usare
(in sola lettura)
a chi vuole crearsi copie locali facendo migliaia di
richieste.
* qualcuno con un buon accesso internet
si crea una copia (come sto facendo io)
magari partendo dal materiale indicato sopra
e fa i lavori indicati nei primi due punti
Per capirsi megli
Gli script in ballo sono i seguenti
===================================
(altrimenti di cosa si sta discutendo :-)
* localwiki: crea la copia statica (oggi: 30 Mega,
zippato: 8 MByte)
MOLTO DANNOSO: in locale,
(cio� senza problemi di server e internet)
ci impiega oltre un'ora
* wikistat: fa le statistiche differenziate per tipo
di pagina
(vedasi [[Ultime Notizie]])
Sul mio localhost ci impiega quasi mezz'ora
MOLTO DANNOSO
* wikisearch: permette le ricerca su pi� wikiserver
(del tipo nostro, per�)
e ordina gli output in modo pi� intelligente
TRANQUILLO
* transwiki: traduce le pagine "calendario"
attualmente solo dall'inglese all'italiano
ma facile passare ad altre lingue... basta
insegnargliele
(mi chiedo come mai ultimamente non l'ho pi� fatto,
forse perch� me ne ero dimenticato :-|
RISCHIO di schede alla babelfish (o come si chiama
il sito traduttore)
* wikischeda: attualmente permette di compilare le
schede comunali
o provinciali
preved(ev)o di implementare anche per gli animali e
le piante
RISCHIO di schede con campi vuoti
* wikirobot: comunica con i server
** --mirror: preleva le pagine indicate e li
trasferisce
su un altro server (il locale, ovviamente)
conosce pure i server tedesco, francese e inglese
con l'opzione --last nn gli si pu� dire di
prelevare solo le modifiche
degli ultimi nn giorni
RISCHIO: uso intensivo
** --upload: butta su un server (anche quello
ufficiale)
le pagine indicate. permette di compilare il
summary.
Incapace di gestire i cookie e dunque l'identit�
Conosce solo it.wiki (avevo paura di me stesso!)
RISCHIO ELEVATO
quando passeremo al Phase III, dovr� modificare
leggermente il codice. a quel punto vengono messe
a rischio pure le wikipedie delle altre lingue
** --RecentChanges: elenca le ultime voci modificate
RISCHIO MODERATO: si potrebe chiedere di avere le
modifiche
degli ultimi 999 gironi (cio� tutte e 3 mila)
** --index: elenca tutte le voci presenti
RISCHIO MODERATO: chi conosce la funzione di
UseModWiki la pu� usare comunque
** a scelta conosce lo STDIN e STDOUT e dunque con
opportuni "pipe"
� capace pure di ricerche e sostituzioni
RISCHIO: aumenta i rischi indicati sopra
* banca dati (testo) degli 8000 comuni italiani con
loro cap e prov
ma soprattutto le coordinate
INNOCUO
* comuni: da usare con la banca dati per conoscere
comuni limitrofi
localizzare le province e i comuni maggiori di una
provincia
RISCHIO MEDIO: attualmente non guarda "oltre
provincia" e dunque
sbaglia clamorosamente i limitrofi. Quando mancano
le coord
di un comune il risultato dei limitrofi � assurdo.
* microgis (sto andando un po' fuori tema):
permette di creare cartine geografiche usando un
browser.
La migrazione della bancadati "txt" a mysql non �
completa
ma funzionano tutte e due le modalit�
(potrei ritrovarmi un pc senza mysql :-|
RISCHIO: cartine incomplete, sovraccarico del server
"ospite"
(il nostro attualmente non permette l'upload di
immagini)
Attualmente mancano troppe info (confini regionali e
provinciali,
autostrade, ferrovie, strade, fiumi) per troppi
territori (italiani)
Nota: sarebbe un bel progetto opensource, ma credo
che
abbiamo di megli da fare. Inoltre forse altri hanno
strumenti
pi� furbi e banche dati gi� opensource.
__________________________________
Do you Yahoo!?
Yahoo! SiteBuilder - Free, easy-to-use web site design software
http://sitebuilder.yahoo.com
Ho visto che il collegamento a TeX è in inglese.
Sto effettuando la traduzione dell'articolo dall'inglese all'italiano,
cosi' comincio a diventare pratico con la sistassi di Wikipedia,
poi magari riesco pure a scrivere un articolo tutto mio.
Fra un settimana parto per le vacanze, quindi non so se riusciro' a
tradurlo prima di
partire, pero' lo sto facendo.
Lo dico per fare in modo che non spendiamo in piu' persone energie per fare
la stessa
cosa.
Anzi, se qualcuno sta facendo la stessa cosa, o sta scrivendo un articolo
originale
sul TeX, me lo dica, cos' mi dedichero' ad altro, oppure ci daremo una mano,
come vi pare.
Ciao ciao,
Andrea Gaggiotti
P.S. Come faccio se volessi cambiare l'indirizzo e-mail di sottoscrizione alla
mailing list?