Technology Oggi risorge Gesù, e forse anche io

Epitaffio

SoHead Technician
Laitorn ha scritto:
Comunque in effetti una situazione cosi' tragica come la tua era un bel po' che non la vedevo, forse sarebbe stato meglio installare debian che sui computer antichi va molto meglio di ubuntu, ma avresti perso tutto il vantaggio di una distro user friendly come ubuntu :V

Il vantaggio di partire con ubuntu è che puoi farti le ossa su di un sistema "facile" per poi magari più in là passare ad un altro sistema e via dicendo. Imho è solo esperienza acquisita quella di ogh :hehehe:
 

Il Droide

Spam Master
Non avevo mai letto così tante stronzate in così poche righe, bravissimi!


Arc@ngel ha scritto:
Quello che non consideri a mio parere è che OpenGL è ad oggi inferiore a DirectX.
Sia in termini di prestazioni (con le ombre OpenGL fa veramente cagare), sia (soprattutto) in termini di documentazione, tools, usabilità.

Sarà per questo che nVidia ha rilasciato PhysX prima con compatibilità per OpenGL e poi per DirectX, vero?

OpenGL di per se è un layer difficilissimo da utilizzare, nessuno consiglia di usarlo "puro" così com'è, perché è pensato per davvero troppe cose, non solo per i giochi. Volete fare i videogiochi? Usate le MILLEMILA librerie (open e no) che si basano su OpenGL.

Per dirne un paio: Irrlicht e Ogre, con cui ultimamente stanno uscendo parecchi giochi.
La ID Software da secoli utilizza OpenGL per il suo motore IDEngine e no, non lo fa solo perché è multipiattaforma, lo fa perché se riesci a "domare" le OpenGL tiri fuori effetti spettacolari. Basta vedere Doom 3, che quando è uscito era millenni avanti a qualsiasi altro gioco con le DirectX 10.


Arc@ngel ha scritto:
Altra cosa, non è vero che il processo iniziato da Ubuntu non può far altro che migliorare.
A mio parere è peggiorato parecchio ed ha innescato un brutto trend, ovvero negli ultimi due anni si pensa prima all'estetica, ai software di alto livello, piuttosto che pensare ai problemi di fondo.
A me sembra assurdo che se installo Ubuntu, ogni volta che aggiorno il kernel devo installarmi i driver nvidia a mano e configurarli su Xorg.
Insomma, questi driver ci sono, ho detto al SO che li voglio, ogni revisione del kernel (una ogni due settimane?) devo fare tutto sto casino?

Che colpa dai a Linux se quelli di nVidia non sono capaci di rilasciare un DKMS fatto per bene?
ATi rilascia periodicamente i driver fglrx (e non ricordo il nome di quello per le nuove Radeon) con un DKMS che si autoaggiorna tranquillamente assieme al kernel.
Allora anche a me Windows 7 fa schifo perché Eclipse non mi si aggiorna automaticamente ma devo andare nel sito a farlo. Cazzo, Microsoft lo sa che voglio un software di terze parti sempre aggiornato, perché non lo fa? Mi sembra così semplice.


Arc@ngel ha scritto:
Per altre periferiche il discorso è uguale. Insomma perché la gestione dei driver è così inutilmente ostica? Perché non è automatizzata?
Windows 7 se non riconosce una periferica, cerca sul suo repository i driver, li installa e la periferica funziona.
Non mi sembra fantascienza.

Esclusa la scheda video io non ho MAI dovuto installare un driver in tutta la mia vita, neanche per utilizzare il cellulare come Modem. Attacco una tastiera e funziona sin dall'inizio, non mi deve andare a cercare dei driver in un repository, mentre su Windows no. Se sono offline non uso la tastiera, easy.
Smettiamola con sta stronzata, è davvero infantile. Il kernel di Linux che viene "shippato" di default copre il 99,9% dell'utenza, ha tutti i driver base per far funzionare qualsiasi periferica. Qualche periferica potrebbe non funzionare (vedi la chiavetta WiFi di Ogh, che comunque sono sicuro si possa far funzionare), ma sono rare eccezioni.

Giusto per dirne una: la mia webcam (Trust modello abbastanza vecchio) non funziona su Windows 7 per mancanza dei driver mentre funziona divinamente su Linux. Perché? Perché in assenza di driver specifici il kernel ne usa uno "generale" e - guarda caso - funziona.


Arc@ngel ha scritto:
Allora, al posto di passare mesi a lavorare su Unity, che è un prodotto inferiore all'interfaccia di OS X o W7, perché non risolvere questi problemi?
Insomma, perché oggi, io utonto, devo installare Ubuntu in sfavore di altri sistemi operativi che per me sono oscuri al pari, ma che funzionano meglio?


Hai idea di quante persone sia formato un team di sviluppo? No perché probabilmente ignori il basilare concetto di "sviluppo in squadra": io mi occupo di una cosa, tu di un'altra. Il team grafico di Canonical è tipo l'8% di tutta Canonical.

(Poi tralasciamo il fatto che a me stia sul cazzo Shuttleworth perché è un ipocrita del cazzo che ruba i soldi a GNOME, ma di fatto Canonical è uno dei team di sviluppo più attivi di tutta la comunità opensource, secondi solo a redhat forse)



Laitorn ha scritto:
Ubuntu in questo spero riuscira' a completare quello che ha iniziato: fanculo gli integralisti di linux, e fanculo con loro anche X e GNOME, bisogna letteralmente buttare via tutto quel codice scritto negli anni 80, benvenga Wayland che probabilmente rendera' linux un sistema operativo piu' appetibile per estenderci il mercato dei videogiochi (Steam in primis).


GNOME 2.x "vive" dal 2003, è stato completamente cestinato quest'anno con GNOME 3 (non hanno neanche un decimo di riga di codice in comune).
X.Org esiste dal 2004/2005, prima c'era XFree86, sempre degli sviluppatori di X. X.Org e XFree86 condividevano soltanto il file di configurazione per motivi di compatibilità, ma quel file è stato cestinato ormai da un paio d'anni.
Il kernel di Linux, dalla versione 2.6.30 (circa) è stato praticamente riscritto "from scratch" in moltissime parti fondamentali, e giusto ora stan discutendo anche il cambiare lo scheduler (CFS, attivo dal 2004) con un altro più veloce.

Ma che cazzo parlate a vanvera? Il codice degli anni '80 ce l'ha l'Intel nei suoi processori (il subset d'istruzioni dell'8080 ha continuato ad esistere fino all'i3), ce l'ha la Microsoft nel suo Kernel (applicazioni di Windows 95 funzionano ancora su Windows 7. Mi spiegate il PERCHÉ?!).




Linux ha 430918412445134234123 difetti e volendo ve li posso elencare tutti, ma NO, lo sviluppo attivo e innovativo è una cosa che NON potete attaccare.
 

Arch@ngel

Ninja Skilled!
Il Droide ha scritto:
Non avevo mai letto così tante stronzate in così poche righe, bravissimi!


Sarà per questo che nVidia ha rilasciato PhysX prima con compatibilità per OpenGL e poi per DirectX, vero?

OpenGL di per se è un layer difficilissimo da utilizzare, nessuno consiglia di usarlo "puro" così com'è, perché è pensato per davvero troppe cose, non solo per i giochi. Volete fare i videogiochi? Usate le MILLEMILA librerie (open e no) che si basano su OpenGL.

Per dirne un paio: Irrlicht e Ogre, con cui ultimamente stanno uscendo parecchi giochi.
La ID Software da secoli utilizza OpenGL per il suo motore IDEngine e no, non lo fa solo perché è multipiattaforma, lo fa perché se riesci a "domare" le OpenGL tiri fuori effetti spettacolari. Basta vedere Doom 3, che quando è uscito era millenni avanti a qualsiasi altro gioco con le DirectX 10.

Che c'entra PhysX con la grafica? Quello è un motore fisico e sì, magari in quel caso è ben più facile usare le OpenGL, perché più aperte.
Però non è una necessità di tutti creare un intero motore.
Quello che vorrebbero i più è un bel pacchetto di API con cui interfacciarsi.
Quelle di OpenGL fanno schifo, MS invece ha investito parecchio per renderle belle, documentate e funzionali.

Poi tu mi puoi dire che le OpenGL risolvono la fame nel mondo, ma se sono un inferno da utilizzare, non c'è confronto.
Ogre 3D è meraviglioso e sì, molti lo stanno usando.
Anche Source è stato portato su OpenGL, ma qui stiamo già parlando di alti livelli.

Molti produttori implementano ancora i loro engine e se hanno a che fare con interfacce complicate per una fetta di mercato in più ridicola, non credo sceglieranno la via più difficile (e costosa).

Quello che penso IO poi è diverso, i discorsi che faccio ora sono decisamente pragmatici/pratici.

Il Droide ha scritto:
Che colpa dai a Linux se quelli di nVidia non sono capaci di rilasciare un DKMS fatto per bene?
ATi rilascia periodicamente i driver fglrx (e non ricordo il nome di quello per le nuove Radeon) con un DKMS che si autoaggiorna tranquillamente assieme al kernel.
Allora anche a me Windows 7 fa schifo perché Eclipse non mi si aggiorna automaticamente ma devo andare nel sito a farlo. Cazzo, Microsoft lo sa che voglio un software di terze parti sempre aggiornato, perché non lo fa? Mi sembra così semplice.

Non è solo il discorso NVidia (che secondo me potrebbe essere migliorato).
Il punto è che o i driver ce li hai già (moduli del kernel) o molto probabilmente ti attacchi al cazzo e/o ti tocca fare a mano.
Eclipse l'ho appena aggiornato senza andare in nessun sito.
Windows spesso mi dice che Avira non è aggiornato (notifica che posso disattivare volendo) e se gli dico "Ok, pensaci tu", lo aggiorna lui senza farmi aprire l'antivirus.
Se ho dei driver più vecchi di quelli su Windows Update (Nvidia compresi), me li mostra come opzionali nel caso volessi installarli.
Capirai che negli anni hanno fatto passi da gigante in questo senso, perché gli utenti si erano ben rotti il cazzo di installare driver su driver.

Il Droide ha scritto:
Esclusa la scheda video io non ho MAI dovuto installare un driver in tutta la mia vita, neanche per utilizzare il cellulare come Modem. Attacco una tastiera e funziona sin dall'inizio, non mi deve andare a cercare dei driver in un repository, mentre su Windows no. Se sono offline non uso la tastiera, easy.
Smettiamola con sta stronzata, è davvero infantile. Il kernel di Linux che viene "shippato" di default copre il 99,9% dell'utenza, ha tutti i driver base per far funzionare qualsiasi periferica. Qualche periferica potrebbe non funzionare (vedi la chiavetta WiFi di Ogh, che comunque sono sicuro si possa far funzionare), ma sono rare eccezioni.

Giusto per dirne una: la mia webcam (Trust modello abbastanza vecchio) non funziona su Windows 7 per mancanza dei driver mentre funziona divinamente su Linux. Perché? Perché in assenza di driver specifici il kernel ne usa uno "generale" e - guarda caso - funziona.

No, da Windows XP è stata introdotta una notevole quantità di drivers generici. Una tastiera funzionerà al 99,9%.
Su Seven poi la cosa è decisamente migliorata.
Io su Windows al contrario tuo non ho mai installato i driver della tastiera. Nemmeno di quella a infrarossi che usavamo sulla streamingbox con XP.

Che poi ci siano driver che non funzionano sull'uno o sull'altro OS è normale. Ci sono sempre eccezioni e Linux è sfavorito dal monopolio di mercato di MS, che porta i produttori a fottersene di scrivere driver.
Quello che lamento da utente, è il mancato supporto per i driver che invece ci sono.
Non è vero che sono tutti nel kernel, purtroppo non è così per la maggior parte dei dispositivi, perché giustamente si sceglie di distribuirli a parte (per un discorso di aggiornamento).
Quindi perché non migliorare il riconoscimento delle periferiche e creare un repository di driver da cui attingere?
Così tutto quello che non è nel kernel, me lo cerco online.

Insomma, il funzionamento di Windows Update non è stupido, soprattutto oggi che internet è una realtà diffusissima.
Quello che non ti posso offrire, lo cerco e se lo trovo lo installo risparmiandoti la fatica di farlo a mano.
Io credo che ogni SO dovrebbe integrare una filosofia del genere.

Il Droide ha scritto:
Hai idea di quante persone sia formato un team di sviluppo? No perché probabilmente ignori il basilare concetto di "sviluppo in squadra": io mi occupo di una cosa, tu di un'altra. Il team grafico di Canonical è tipo l'8% di tutta Canonical.

(Poi tralasciamo il fatto che a me stia sul cazzo Shuttleworth perché è un ipocrita del cazzo che ruba i soldi a GNOME, ma di fatto Canonical è uno dei team di sviluppo più attivi di tutta la comunità opensource, secondi solo a redhat forse)

Bene, quell'8% probabilmente poteva essere pagato per fare altro.
Io sinceramente non ho visto grossi improvement in Ubuntu negli ultimi anni, se non ad alto livello (interfaccia/applicazioni).
Sul basso riscontro i soliti problemi di sempre.

Canonical poi ovviamente fa gli interessi dei suoi clienti, che sicuramente usano Ubuntu a livello server/aziendale ed è giustissimo così.
Ma ciò che non è questo, a me è parso più che altro un "Ehi, abbelliamolo e facciamo tante cose carine", scordandosi di tutto il resto.

Poi il mio è un feedback da utente, non ho idea di dove siano concentrati gli investimenti di preciso.
Quello che mi fa incazzare lo sai, è la frammentazione.
Un repository di driver sicuramente è complicato da implementare anche per questo ed infatti mi chiedo "In un contesto dove ognuno tira avanti la sua barchetta, ha più senso investire sulle parti in comune o su quelle che caratterizzano/favoriscono il proprio prodotto(v. Unity)?".

Il Droide ha scritto:
GNOME 2.x "vive" dal 2003, è stato completamente cestinato quest'anno con GNOME 3 (non hanno neanche un decimo di riga di codice in comune).
X.Org esiste dal 2004/2005, prima c'era XFree86, sempre degli sviluppatori di X. X.Org e XFree86 condividevano soltanto il file di configurazione per motivi di compatibilità, ma quel file è stato cestinato ormai da un paio d'anni.
Il kernel di Linux, dalla versione 2.6.30 (circa) è stato praticamente riscritto "from scratch" in moltissime parti fondamentali, e giusto ora stan discutendo anche il cambiare lo scheduler (CFS, attivo dal 2004) con un altro più veloce.

I progressi ci sono e vanno riconosciuti, questo è indubbio.
Quando ho visto "udev" ho pensato "cazzogigafigata!" e secondo me sono proprio queste cose che vanno migliorate.
Ma chi finanzia questi sviluppiù
Canonical (per dirne una) ha più interesse ad investire su udev o a prendere le cose che già ci sono per farle funzionare come meglio si riesce e magari abbellirle con una interfaccina che le renda usabili?

Quale di queste aziende ha la lungimiranza ed il coraggio di dire "Cazzo, devo dedicare dei fondi per riscrivere (ancora una volta) le API di OpenGL, così in questo modo posso migliorare Linux e di conseguenza la mia distribuzione"?
Insomma, questi sono i grossi difetti del mondo "non proprietario", i grossi difetti della democrazia informatica, che non è scontato abbia successo (in termini di risultati).

Il risultato, come già si discuteva giorni fa, è che GoboLinux ad esempio è considerato da 4 gatti e non sai quanto mi faccia incazzare, perché potrebbe veramente imporsi come standard comune sul quale contribuire tutti assieme.

Il Droide ha scritto:
Ma che cazzo parlate a vanvera? Il codice degli anni '80 ce l'ha l'Intel nei suoi processori (il subset d'istruzioni dell'8080 ha continuato ad esistere fino all'i3), ce l'ha la Microsoft nel suo Kernel (applicazioni di Windows 95 funzionano ancora su Windows 7. Mi spiegate il PERCHÉ?!).

Funzionano in compatibility mode, per un discorso prettamente commerciale.
Molte aziende usano ancora software del '95, sia a livello di OS, sia a livello di istruzioni sulla CPU.
Quando OS X ha abbandonato (passando ad Intel) il supporto alla preistoria, moltissima gente si è incazzata ed anche nel mio piccolo, avevamo parecchi clienti che utilizzavano software scritto negli anni '90.
 

Il Droide

Spam Master
Arc@ngel ha scritto:
Che c'entra PhysX con la grafica? Quello è un motore fisico e sì, magari in quel caso è ben più facile usare le OpenGL, perché più aperte.
Però non è una necessità di tutti creare un intero motore.
Quello che vorrebbero i più è un bel pacchetto di API con cui interfacciarsi.
Quelle di OpenGL fanno schifo, MS invece ha investito parecchio per renderle belle, documentate e funzionali.


Non so eh, ma se un'azienda che produce schede grafiche implementa un motore fisico utilizzando determinate librerie piuttosto che altre, non vuol per caso dire che han trovato più facile farlo con quelle e non con le altre?
Non si sta parlando di tre cretini che si son riuniti e han scritto World of Goo (o eran due? comunque spettacolare), si sta parlando di un'azienda con 10+ anni di produzione alle spalle.

Attualmente la mia terza azienda preferita in quanto a schede grafiche :look:



Arc@ngel ha scritto:
Poi tu mi puoi dire che le OpenGL risolvono la fame nel mondo, ma se sono un inferno da utilizzare, non c'è confronto.

È ovvio che sono difficili da utilizzare, vanno sempre usate assieme ad una libreria. Se proprio le vuoi usare "pure" anche nella documentazione ufficiale è consigliato di utilizzare GLUT (una libreria che facilita l'utilizzo delle GL_ext) piuttosto che le API originali.
Ma è normale, con le OpenGL ci si fa tutto, non solo i giochini. Pensa soltanto a WebGL, o al nuovo window manager di GNOME 3. Le GL possono essere utilizzate ovunque, se non ci metti una libreria sopra perdi un sacco di tempo, ed è giusto che sia così.

Le DirectX vengono utilizzate non perché siano più facili, ma perché spesso ci sono accordi commerciali dietro, e soprattutto perché permettono la cross-compilazione su XBox (e al giorno d'oggi non è poco).



Arc@ngel ha scritto:
Non è solo il discorso NVidia (che secondo me potrebbe essere migliorato).
Il punto è che o i driver ce li hai già (moduli del kernel) o molto probabilmente ti attacchi al cazzo e/o ti tocca fare a mano.

I moduli del kernel possono essere tranquillamente scaricati precompilati, se utilizzi il kernel di distribuzione.
Hai mai dato un'occhiata al pacchetto linux-firmware-extra?
Ecco, lì c'erano i driver per la mia pennina Pinnacle per il digitale terrestre, che su Linux ha funzionato sin da subito, su Windows ho dovuto sudare una dozzina di camicie (e tutt'ora funziona quando le pare).

Arc@ngel ha scritto:
Eclipse l'ho appena aggiornato senza andare in nessun sito.

Da Eclipse. Io Eclipse su Linux lo aggiorno assieme al kernel e a GIMP.



Arc@ngel ha scritto:
Windows spesso mi dice che Avira non è aggiornato (notifica che posso disattivare volendo) e se gli dico "Ok, pensaci tu", lo aggiorna lui senza farmi aprire l'antivirus.

Avira può sfruttare le API di Windows Update, un programma serio no. Un programma pensato per essere cross-piattaforma non può sfruttare quelle API per ovvi motivi.
Anche qui, non ti pare ridicolo che debba essere il developer ad implementare un sistema di aggiornamento del software e non il sistema operativo?


Arc@ngel ha scritto:
Se ho dei driver più vecchi di quelli su Windows Update (Nvidia compresi), me li mostra come opzionali nel caso volessi installarli.
Capirai che negli anni hanno fatto passi da gigante in questo senso, perché gli utenti si erano ben rotti il cazzo di installare driver su driver.

Linux funziona così da quanto? 8 anni? Da quant'è che esistono i repository?


Arc@ngel ha scritto:
Io su Windows al contrario tuo non ho mai installato i driver della tastiera. Nemmeno di quella a infrarossi che usavamo sulla streamingbox con XP.

La mia tastiera USB Microsoft Comfort Curve Keyboard 2000 v1.0 (See printed manual for installation istructions) non ha preso a funzionare finché non ho attaccato la chiavetta wireless e non ha scaricato i driver. Prima ero costretto ad usare una tastiera PS/2 del 1991 tipo. Non è una stronzata, giuro, ci sono rimasto malissimo.




Tutto il resto del discorso sui team di sviluppo mi sembra abbastanza ridicolo, specialmente quello della frammentazione. Su Linux ognuno si occupa di quello che si vuole occupare, è normale.
Il 90% del team di Fedora lavora al progetto GNOME (dal quale traggono beneficio tutte le altre distribuzioni), il 99,9% del team di RedHat lavora a KVM (dal quale ne traggo beneficio solo io), Ubuntu ha riscritto buona parte di X, ha fatto pressioni per usare udev al posto di hal, fino alla rottura ha lavorato tantissimo per GNOME, ha contribuito allo sviluppo di software come Rhythmbox, ...
L'80% del team di SuSE e Mandriva (Novell) sviluppa attivamente le Qt (che fan cagare al cazzo) e KDE. Il team di Debian è praticamente tutto concentrato sul kernel.

Il kernel stesso è un'orgia di sviluppatori: Intel in questo periodo ne ha buttati dentro così tanti che c'è l'imbarazzo della scelta.





Lo vuoi sapere qual è il reale problema di Linux? Il suo creatore.
Linus Torvalds - per quanto simpaticissimo - è una delle persone più chiuse e meno democratiche che esistano al mondo, quasi la totalità dei flame sulla ml kernel-devs è causata da lui e dalla sua chiusura del cazzo.

Per quanto mi stiano sul cazzo, se il kernel fosse guidato dal team di GNU a quest'ora Linux sarebbe uno stupendo microkernel così tanto veloce da fartelo venir duro.
 

Arch@ngel

Ninja Skilled!
Il Droide ha scritto:
[CUT] Se divido tutti i quote facciamo domani. ;_;

Attento, tu confondi Windows Update con un gestore di pacchetti.
A parer mio la pacchettizzazione è uno dei mali di Linux, per il semplice fatto che esistono X gestori e che uno sviluppatore deve pensare a X pacchetti diversi. (Che poi ci siano i tools per la trasformazione e che uno si possa installare la roba a mano lascia stare)

Fuori da questo ci sono due approcci:
1) Filesystem hierarchy: trascini la cartella dell'applicazione dove cazzo ti pare e questa sa già come muoversi nel sistema perché è tutto ben strutturato. L'esempio lampante è OS X, ma ci sono molti casi in cui questo non funziona (tipo con suite complesse) e veniamo al punto:
2) Installer: tu sviluppatore ti preoccupi di aver cura della tua applicazione, di installare ciò che serve, dove serve, patchare al posto di sostituire ecc. ecc.

Ovviamente ci sono pro e contro. Io sinceramente disprezzo il fatto che il SO continui a dirmi che ho da aggiornare tot software e che ogni volta scarichi il mondo.
Il SO pensi ai cazzi suoi, le applicazioni sono affar mio. Io intendo un repository di utilità di basso livello, vedi drivers, non tanto di applicazioni.
Tipo il discorso che Windows mi avvisa dell'Antivirus, alla lunga annoia.
Quello che verrà introdotto con Windows 8 è una sorta di App Store e quindi anche lì ci sarà un repository di applicazioni, ma sinceramente non è una cosa che mi piaccia particolarmente.
Certo è comodo, ma secondo me meno efficiente. In più spero la gerarchia del filesystem non si trasformi in un bordello stile Linux "perché tanto ci pensa l'App Manager"(o come cazzo si chiamerà)

Altre cose sparse:
  • DirectX ha a disposizione più tools, perché fino ad oggi conviene molto di più sviluppare su Windows (per la dominanza di mercato). C'è anche da dire che MS ci investe molto e i risultati ci sono, un po' come è successo per .Net.
    Quello che io credo è che OS X abbia portato una buona fetta di potenziali "clienti" a cui bisognerebbe guardare.
    Insomma, Source portato su OpenGL dovrebbe far accendere una lampadina "Rendiamole più semplici da utilizzare e meglio documentate!"
  • Qt ti farà schifo, ma anche quello è meglio documentato. Comunque, al di là del caso particolare, prendi .Net vs Gtk, secondo te la gente quale preferisce da utilizzare? Non "il migliore" eh, solo quale vorresti utilizzare da programmatore medio.
  • linux-firmware-che?
  • Per la tastiera non so che dirti, io con i driver solitamente non ho problemi su Windows. Su Linux invece ho sempre seri problemi a far funzionare tutto ed è uno dei motivi per cui non lo uso sul desktop.

Comunque non è una guerra, si parlava di Linux su desktop e dei motivi per cui non "sfonda".
A mio parere perché non è ancora utilizzabile dall'utente medio e ne ho elencato quelli che per me sono i motivi.
Poi ripeto, tutti questi sviluppi non li ho notati negli ultimi anni e tutto mi sembra un po' statico a livello di OS.

Linux va da dio (a livello utonto) su alcuni portatili per certi utilizzi, ma ne passa per la conquista del desktop e dei sistemi comuni.
 

Laitorn

SoHead Hero
Il codice di X e' vecchio, lo possono aver riscritto da zero pure ieri, ma e' un codice totalmente inadeguato a supportare qualsivoglia possibile mercato di videogiochi su linux.
Tu stai li' a contare quante righe di codice hanno in comune le varie release e nemmeno ti accorgi che pure con quel codice nuovo non ci fai nulla.

Benvenga Wayland, che e' codice NUOVO perche' pensato per funzionare nel 2000, non per far sborrare programmatori vintage. Tra l'altro io sono un signor nessuno ovviamente, ma se ti leggessi un po' di interviste fatte a gente che ci ha provato a far giochi multipiattaforma (id software?) o invece gente che ci sta provando ora (leggiti cosa dicono gli sviluppatori dei giochi nell' humble indie bundle) spunta fuori che per adattare un gioco a linux ci vogliono mesi di lavoro, ed il principale responsabile e' X.
Sono parecchi anni che uso linux e sono parecchi anni che gioco con linux, quindi magari non sapro' un cazzo di programmazione, ma so quali sono i problemi evidenziati da programmatori che hanno magari piu' competenza di te in fatto di giochi.


Poi ancora, gnome 2 potrebbero pure averlo scritto nel 2026, ma il risultato finale e soprattutto la sensazione quando lo si usa e' di qualcosa di vecchio di decenni. Tu sei un programmatore e ti diverti a confrontare le righe di codice, poi pero' esiste anche il mondo reale che si occupa di cose un po' piu' serie.
 

Il Droide

Spam Master
Laitorn ha scritto:
Il codice di X e' vecchio, lo possono aver riscritto da zero pure ieri, ma e' un codice totalmente inadeguato a supportare qualsivoglia possibile mercato di videogiochi su linux.
Tu stai li' a contare quante righe di codice hanno in comune le varie release e nemmeno ti accorgi che pure con quel codice nuovo non ci fai nulla.

Probabilmente ti sta un attimino sfuggendo un punto fondamentale: al 90% degli utenti di Linux non frega un cazzo né dei videogiochi né del discorso "Linux deve conquistare il mondo". Molto spesso, chi usa Linux lo fa perché ha ben altri vantaggi, che con Windows proprio non puoi avere.

Il codice di X non è vecchio, il protocollo forse, ma il codice proprio no.



Laitorn ha scritto:
Benvenga Wayland, che e' codice NUOVO perche' pensato per funzionare nel 2000

E chi ha mai detto il contrario? A me Wayland piace tantissimo, ho anche già avuto modo di testarlo e funziona discretamente bene (considerando che è una prealpha), non vedo l'ora di vederlo utilizzato su qualche distro, anche se secondo me Ubuntu non ce la farà per la 11.10, più probabile per la 12.04 o la 12.10.
Benvenga codice nuovo. Gnome 3.0 è stato riscritto da zero utilizzando Mutter come window manager proprio per essere già pronto a Wayland. Wayland infatti funzionerà completamente sulle GL e sarà un server grafico composito di default.
Questo ha - ovviamente - un pro e un contro.
Il pro è che sarà davvero figo da vedere, il contro è che Oghard probabilmente non lo potrà mai usare :asd:

Laitorn ha scritto:
Tra l'altro io sono un signor nessuno ovviamente, ma se ti leggessi un po' di interviste fatte a gente che ci ha provato a far giochi multipiattaforma (id software?) o invece gente che ci sta provando ora (leggiti cosa dicono gli sviluppatori dei giochi nell' humble indie bundle) spunta fuori che per adattare un gioco a linux ci vogliono mesi di lavoro, ed il principale responsabile e' X.

Premesso che ti credo, ma mi potresti linkare qualcuna di queste interviste? Googlando un po' non ne ho trovate, ma erano anche le 4 del mattino e avevo appena chiuso l'IDE :D
Più che altro vorrei sapere con più precisione quale parte di X contestano. Normalmente si contestano delle librerie grafiche, non un protocollo che disegna puntini sullo schermo.



Laitorn ha scritto:
Sono parecchi anni che uso linux e sono parecchi anni che gioco con linux, quindi magari non sapro' un cazzo di programmazione, ma so quali sono i problemi evidenziati da programmatori che hanno magari piu' competenza di te in fatto di giochi.


Poi ancora, gnome 2 potrebbero pure averlo scritto nel 2026, ma il risultato finale e soprattutto la sensazione quando lo si usa e' di qualcosa di vecchio di decenni. Tu sei un programmatore e ti diverti a confrontare le righe di codice, poi pero' esiste anche il mondo reale che si occupa di cose un po' piu' serie.


Anche qui, la stai mettendo come se a me piacesse usare software vecchio o se ostacolassi in qualche modo la crescita dei vari software. Tu hai scritto nel reply precedente che "GNOME è codice degli anni '80, X anche", io ti ho contestato questo e non "la sensazione di usare software vecchio".
Gnome 2 (che ho usato sempre) effettivamente aveva cominciato ad avere un look&feel datato, ed è per questo che è stato scritto Gnome 3. Lo stesso processo lo sta seguendo X, prima con XFree86, poi X.Org e ora Wayland. È la normale evoluzione. Un progetto nasce per soppiantarne un altro, viene sviluppato per qualche anno e poi sostituito da un altro progetto, punto.

Tanto per.. recentemente lo sviluppatore di Qemu (che tra l'altro è anche padre dell'algoritmo per il pi-calcolo più efficiente ad ora mai creato) ha annunciato che presto il suo progetto verrà dismesso e ci sarà solo KVM. È l'evoluzione.

Ah, e se permetti, Qemu/KVM e in genere la virtualizzazione, fa parte del mondo reale (paradossalmente) e lo reputo un campo ben più serio dei videogiochi.
 

Il Droide

Spam Master
In Francia usano da anni Debian senza nessun problema.
In Germania è stato fatto un pasticcio dai sistemisti che anziché appoggiarsi ad una distribuzione già esistente han preferito farne una apposta, inserendo software datato e buggato.


Capita.
 

Epitaffio

SoHead Technician
Arch, stavolta stai sostenendo una cazzata. Nell'articolo si parla di:

1) Costi di gestione troppo alti.
2) Costi per "addestramento" del personale troppo alti.
3) Scarsa compatibilità coi programmi win.
4) Software obsoleto e insicuro.

Ora, a parte il punto 1, di cui non viene specificato nessun dettaglio (i sistemisti chiedevano troppo? :look: ), gli altri mi sembrano menate assurde.

Nelle varie ditte che seguiamo, quando posso costringo gli utenti ad usare thunderbird al posto di outlook, idem per open office (un pò più difficile) e una volta fatto vedere dove si clicca per scrivere una mail, nessuno si è mai lamentato.. e non son certo dei campioni col pc. Immagino che in un ministero degli esterni (tedesco nb) ci sia comunque un utenza perlomeno un minimo qualificata. Per quanto riguarda il costo, vale il primo punto, forse ci stavano mangiando su chi faceva questi corsi..

Scarsa compatibilità con programmi win e software insicuro e obsoleto, mhè :V ?

Cioè se office non è compatibile con lo standard mondiale che ha sottoscritto è colpa dell'open source? lul.
Se utilizzi software vecchio di SEI anni è colpa dell'open source? lul.


Io nell'articolo leggo solo colpe dei sistemisti, non certo dell'open source.

Vuoi abbattere i costi di licenza e avere sicurezza? Compra delle licenze red hat.
Vuoi avere maggiore compatibilità coi formati office? Metti libreoffice.
Vuoi avere software esente da bug? Installare versioni aggiornate potrebbe aiutare.
 

Arch@ngel

Ninja Skilled!
Epitaffio ha scritto:
Arch, stavolta stai sostenendo una cazzata. Nell'articolo si parla di:

1) Costi di gestione troppo alti.
2) Costi per "addestramento" del personale troppo alti.
3) Scarsa compatibilità coi programmi win.
4) Software obsoleto e insicuro.

Ora, a parte il punto 1, di cui non viene specificato nessun dettaglio (i sistemisti chiedevano troppo? :look: ), gli altri mi sembrano menate assurde.

Nelle varie ditte che seguiamo, quando posso costringo gli utenti ad usare thunderbird al posto di outlook, idem per open office (un pò più difficile) e una volta fatto vedere dove si clicca per scrivere una mail, nessuno si è mai lamentato.. e non son certo dei campioni col pc. Immagino che in un ministero degli esterni (tedesco nb) ci sia comunque un utenza perlomeno un minimo qualificata. Per quanto riguarda il costo, vale il primo punto, forse ci stavano mangiando su chi faceva questi corsi..

Scarsa compatibilità con programmi win e software insicuro e obsoleto, mhè :V ?

Cioè se office non è compatibile con lo standard mondiale che ha sottoscritto è colpa dell'open source? lul.
Se utilizzi software vecchio di SEI anni è colpa dell'open source? lul.


Io nell'articolo leggo solo colpe dei sistemisti, non certo dell'open source.

Vuoi abbattere i costi di licenza e avere sicurezza? Compra delle licenze red hat.
Vuoi avere maggiore compatibilità coi formati office? Metti libreoffice.
Vuoi avere software esente da bug? Installare versioni aggiornate potrebbe aiutare.

Secondo me invece evidenzia problemi molto concreti.
Ovvero:

1) Gestire sistemi Linux costa di più in quanto a consulenze: Non è necessariamente un male, ma se lo vediamo in termini di costi, è certamente più complicato. Ad esempio, nella mia università usano VmWare anche per un discorso di "semplicità" e nonostante la soluzione faccia schifo, rendo atto che è più semplice utilizzarla.

2) Le soluzioni opensource sono meno "user friendly": Questo è abbastanza noto. Io non darei la colpa ai dipendenti incapaci. La verità è che MS (o anche Apple) investe milionate per rendere il software a prova di idiota. Office è molto più facile da utilizzare di OpenOffice ad esempio, così come Outlook è più facile rispetto a Thunderbird, ti fanno tribolare meno (consulenze, usabilità) e per certe cose funzionano meglio.
Io per fare una relazione ho abbandonato OpenOffice in favore di Office perché stavo diventando bastardo ed idiota ad inserire 800 funzioni matematiche. Su Office è di una semplicità disarmante, per dirne una.

3) C'è scarsa compatibilità con applicazioni/formati proprietari: Qui grazie al cazzo. Anche secondo me è stato un errore prenderlo come problema, soprattutto dal momento in cui rendi ODF un formato standard e poi ti ritrovi a lavorare ancora con .doc

4) Software insicuro: Non direi "insicuro", quello che è stato fatto notare, è che dentro all'open source, nessuno si assume la responsabilità del funzionamento del software. Questo è il problema ed è grosso se la vedete sotto un'ottica aziendale di "garanzie". Insomma, con chi te la prendi se il software non funziona? A chi chiedi i danni? A chi telefoni bestemmiando pretendendo che il problema sia risolto?
Le soluzioni open source sono per lo più "as is", se non funziona ti arrangi o comunque non hai nessun diritto di lamentarti e questo non è assolutamente accettabile per un'amministrazione pubblica.
Ma anche per un'azienda comune. Se domani i tuoi clienti aggiornano Thunderbird e nessuno riesce a mandare più una mail, tu cosa fai quanto cominciano a prenderti a botte? Chi chiami? Stallman e lo mandi a fanculo? A chi chiedi i danni?


Poi specifico, non sto dicendo "Linux merda, nessuno lo dovrebbe usare, fa tutto schifo", anzi.
Quello che sottolineo è che non è semplicemente pronto per i desktop, per un uso da utente normale o da ufficio, ecc.
Cioè, sono tedeschi, non è una roba buttata su all'italiana. Quello che stanno facendo in quanto a politiche "green" anche di economia, è abbastanza avanzato. Se sono tornati indietro sui loro passi, evidentemente c'è un problema.

Per chi dice "eh, ma quella era la loro distribuzione, potevano usare Debian".
No, non potevano "usare Debian", proprio per un discorso di garanzie.
Se qualcosa va storto con chi me la prendo?
 

Il Droide

Spam Master
Arc@ngel ha scritto:
2) Le soluzioni opensource sono meno "user friendly": Questo è abbastanza noto. Io non darei la colpa ai dipendenti incapaci. La verità è che MS (o anche Apple) investe milionate per rendere il software a prova di idiota. Office è molto più facile da utilizzare di OpenOffice ad esempio, così come Outlook è più facile rispetto a Thunderbird, ti fanno tribolare meno (consulenze, usabilità) e per certe cose funzionano meglio.
Io per fare una relazione ho abbandonato OpenOffice in favore di Office perché stavo diventando bastardo ed idiota ad inserire 800 funzioni matematiche. Su Office è di una semplicità disarmante, per dirne una.


Boh, mio padre usa OpenOffice (ora LibreOffice) da parecchio.
L'altro giorno, preso dall'esasperazione, l'ha installato anche in un paio di computer dei suoi colleghi in ufficio visto che col nuovo Office non riescono a lavorare (gli han cambiato le macchine da poco, credo abbiano Windows 7 con l'ultima suite). Outlook non l'ha mai usato, ha sempre usato Thunderbird.

Io non gli ho mai spiegato niente, e mio padre non è assolutamente un genio coi PC. Possiamo star qui ore a dire "questo è più" o "questo è meno user-friendly", la realtà è che son cose completamente soggettive, ed è solo questione di abitudine.




Arc@ngel ha scritto:
4) Software insicuro: Non direi "insicuro", quello che è stato fatto notare, è che dentro all'open source, nessuno si assume la responsabilità del funzionamento del software. Questo è il problema ed è grosso se la vedete sotto un'ottica aziendale di "garanzie". Insomma, con chi te la prendi se il software non funziona? A chi chiedi i danni? A chi telefoni bestemmiando pretendendo che il problema sia risolto?
Le soluzioni open source sono per lo più "as is", se non funziona ti arrangi o comunque non hai nessun diritto di lamentarti e questo non è assolutamente accettabile per un'amministrazione pubblica.
Ma anche per un'azienda comune. Se domani i tuoi clienti aggiornano Thunderbird e nessuno riesce a mandare più una mail, tu cosa fai quanto cominciano a prenderti a botte? Chi chiami? Stallman e lo mandi a fanculo? A chi chiedi i danni?

Per chi dice "eh, ma quella era la loro distribuzione, potevano usare Debian".
No, non potevano "usare Debian", proprio per un discorso di garanzie.
Se qualcosa va storto con chi me la prendo?


Questo discorso non regge manco per l'aria del cazzo.
Se qualcosa non va nelle macchine di un'azienda non chiamano Microsoft (o Stallmann) ma chi gli ha fatto l'installazione.





Comunque questa discussione sta diventando noiosissima, io ormai è da un annetto - forse qualcosa di più - che non sostengo più la causa del "Linux su tutti i desktop", proprio per il fatto che Linux non è per tutti. Grazie al cielo.
 

Shaka

Get a life
Fantacalciaro
Il Droide ha scritto:
Questo discorso non regge manco per l'aria del cazzo.
Se qualcosa non va nelle macchine di un'azienda non chiamano Microsoft (o Stallmann) ma chi gli ha fatto l'installazione.

In verità, non chiamano Stallmann, ma possono chiamare Microsoft, aivoglia. Si paga eh.
Non sai quante volte ho visto tecnici Sun o Microsoft venire dall'America per rimettere a posto i server di TIM. Roba da 2000 euro al giorno, ovviamente, infatti di solito si hanno tecnici "specializzati in", ma se c'è un bug o un problema più specifico, c'è, naturalmente, anche l'assistenza della software house
Non entrando nel discorso Linux, l'usabilità di un applicativo non è così banale da poter fare discorsi del tipo "mio padre lo usa e non è una cima". Quando distribuisci, all'interno di una azienda privata o pubblica, un software a n migliaia di utenti che per 20 anni hanno sempre e solo utilizzato un determinato sotware, per forza di cose una grande percentuali degli utenti non apprezzerà il cambiamento. I motivi sono tanti, quasi mai collegabili a un vero problema tecnico, ma vi assicuro che ci sono. In verità vedo in quell'articolo una spiegazione molto semplice di una situazione che in Italia non mi stupirebbe assolutamente, in nessun settore di business
 

Arch@ngel

Ninja Skilled!
Il Droide ha scritto:
Questo discorso non regge manco per l'aria del cazzo.
Se qualcosa non va nelle macchine di un'azienda non chiamano Microsoft (o Stallmann) ma chi gli ha fatto l'installazione.

E chi gli ha fatto l'installazione poi chi chiama?
Secondo me è un punto importantissimo di cui non si tiene conto.
Proprio il fatto che nessuno abbia interessi, può essere un male per Linux o per il mondo Open Source.
Si dovrebbe "privatizzare" di più e magari creare un consorzio (Red Hat, Canonical, IBM, sticazzi) per giungere ad un obiettivo comune.

Così come è ora o ti rotoli nell'elitarismo (e rosiki quando vedi le percentuali di market share), oppure ti attacchi al cazzo.

L'unica è sperare che il desktop scompaia e che le soluzioni embedded e server siano le uniche a rimanere, ma è uno scenario che mi terrorizza a morte.
 

Epitaffio

SoHead Technician
Arc@ngel ha scritto:
2) Le soluzioni opensource sono meno "user friendly": Questo è abbastanza noto. Io non darei la colpa ai dipendenti incapaci. La verità è che MS (o anche Apple) investe milionate per rendere il software a prova di idiota. Office è molto più facile da utilizzare di OpenOffice ad esempio, così come Outlook è più facile rispetto a Thunderbird, ti fanno tribolare meno (consulenze, usabilità) e per certe cose funzionano meglio.
Io per fare una relazione ho abbandonato OpenOffice in favore di Office perché stavo diventando bastardo ed idiota ad inserire 800 funzioni matematiche. Su Office è di una semplicità disarmante, per dirne una.

wtf.. dillo ai dipendenti che si son ritrovati la ui di office 2007, magari passando da office 2000
 

Arch@ngel

Ninja Skilled!
Epitaffio ha scritto:
wtf.. dillo ai dipendenti che si son ritrovati la ui di office 2007, magari passando da office 2000

È comunque una UI dove un team di persone viene pagata oro per renderla il più idiota-friendly possibile.
Esempio estremo, hai mai usato OS X? Prova a fare una cosa, molto probabilmente sarà il modo giusto di farla su quel sistema.
 

Il Droide

Spam Master
Arc@ngel ha scritto:
Io per fare una relazione ho abbandonato OpenOffice in favore di Office perché stavo diventando bastardo ed idiota ad inserire 800 funzioni matematiche. Su Office è di una semplicità disarmante, per dirne una.

Se per fare un disegno di precisione usi un uniposca, non ti puoi lamentare con chi fa gli Uniposca.

Gli editor WYSYWIG non sono pensati per paper scientifici, per quelli si usa LaTeX. E non venirmi a dire che è difficile o altro: l'ha usato l'Alice per farci la tesi di laurea, e in meno di una settimana ne sapeva più di me.

Lo usa pure Leyia, per dire.




Per tutto il resto del discorso, io me ne tiro bellamente fuori. Non sono del parere che "un team di gente strapagata per fare una UI" riesca per forza a tirare fuori una UI migliore disegnata dagli utenti stessi.

Per riparare un server SUN faccio venire un tecnico della SUN, ma qui si stava parlando di Office che non funziona, di Linux che è graficamente meno sexy di Windows, e per queste cose ho seri dubbi che il tecnico "specializzato in" vada a chiamare la Microsoft dicendogli che dalla prossima versione esige avere il supporto per gli ODF e tutti i bottoni colorati di rosa. Indipendentemente dal costo del prodotto.

Linux non è un prodotto per tutti, così come non lo è AutoCAD (se voglio far vedere ai miei amici com'è camera mia io uso la macchina fotografica), così come Photoshop (vado da Dio col Paint per quello che devo fare), e migliaia di altre cose. In fondo Linux è un software come tanti altri, solo che non lo si può piratare.

Personalmente uso Linux perché mi offre più possibilità nel campo che al momento m'interessa di più: virtualizzazione, ma posso ben capire che voi non lo utilizziate e onestamente non mi fa né caldo né freddo.
 

Arch@ngel

Ninja Skilled!
Il Droide ha scritto:
Se per fare un disegno di precisione usi un uniposca, non ti puoi lamentare con chi fa gli Uniposca.

Gli editor WYSYWIG non sono pensati per paper scientifici, per quelli si usa LaTeX. E non venirmi a dire che è difficile o altro: l'ha usato l'Alice per farci la tesi di laurea, e in meno di una settimana ne sapeva più di me.

Lo usa pure Leyia, per dire.




Per tutto il resto del discorso, io me ne tiro bellamente fuori. Non sono del parere che "un team di gente strapagata per fare una UI" riesca per forza a tirare fuori una UI migliore disegnata dagli utenti stessi.

Per riparare un server SUN faccio venire un tecnico della SUN, ma qui si stava parlando di Office che non funziona, di Linux che è graficamente meno sexy di Windows, e per queste cose ho seri dubbi che il tecnico "specializzato in" vada a chiamare la Microsoft dicendogli che dalla prossima versione esige avere il supporto per gli ODF e tutti i bottoni colorati di rosa. Indipendentemente dal costo del prodotto.

Linux non è un prodotto per tutti, così come non lo è AutoCAD (se voglio far vedere ai miei amici com'è camera mia io uso la macchina fotografica), così come Photoshop (vado da Dio col Paint per quello che devo fare), e migliaia di altre cose. In fondo Linux è un software come tanti altri, solo che non lo si può piratare.

Personalmente uso Linux perché mi offre più possibilità nel campo che al momento m'interessa di più: virtualizzazione, ma posso ben capire che voi non lo utilizziate e onestamente non mi fa né caldo né freddo.

Però non è che devi prenderla tutto sul personale.
Insomma, si criticano i difetti in un campo.
Qui non si parla di "volere i bottoni rosa", ma di "chi chiamo se la versione nuova di Thunderbird non manda più le mailì"

Non è questione di "meno sexy".
Io cito OS X a malincuore, ma devo ammettere che il renderlo così tanto intuitivo è un pregio.
Cioè veramente non hai bisogno di manuali, ti basta provare.
Poi avrà altri 600mila difetti, ma quello è sicuramente un enorme pregio, che nemmeno Windows dopo anni di feedbacks di utenti è riuscito a raggiungere. (Perché ancora ci si scartabella con 80 finestre, ma devo dire che in qualche modo è migliorato)

Comunque se mi consigli di imparare Latex per 20 pagine di relazione, evidentemente parliamo lingue diverse.
Io sto dicendo proprio il contrario, cioè che Linux dovrebbe strizzare l'occhio agli utenti comuni per allargare lo share e di conseguenza i guadagni.
L'elitarismo può solo far male.

Insomma, come si può pretendere diffusione, supporti e credibilità, se l'idea è "se siete stupidi sono cazzi vostri"?
Poi nessuno si lamenti se MS conquista i desktop, Apple i portatili e i produttori di hardware non si cagano l'open source nemmeno con il binocolo.
Qui finisce che fra iOS vari e Windows Mobile, si portano via pure le fette future.
 

Il Droide

Spam Master
E chi chiami se la nuova versione di Outlook non manda la mailì Il tecnico. E cosa fa il tecnico? Ti mette una versione di Outlook precedente.
Davvero ho serissimi dubbi che un qualsiasi tecnico chiami la Microsoft per ogni minimo bug su un programma. D'altronde i tecnici sono la valvola di sfogo degli utenti frustrati, lo sanno tutti.

Il discorso di LaTeX era più un consiglio, qualsiasi scienziato vagamente informatico sa che scrivere paper scientifici con editor WYSYWIG è un dito nel culo. Te sei uno scienziato informatico, dovresti saperlo più di altri (ad esempio l'Alice (restauratrice) e Leyia (frocio)), però son gusti. Ho solo trovato fuori luogo il "Openoffice fa schifo perché non son riuscito a mettere 800 formule matematiche in 20 pagine" (sommarizzando), e qui il discorso "Linux vs Windows" c'entra davvero poco: la relazione del mio tirocinio l'ho fatta con Eclipse e LaTeX sotto Windows 7.

Tutto il resto io non lo prendo sul personale, è il forum che rende tutti un po' arroganti, semplicemente da quando ero un fanboy Linux ad oggi ho cambiato molte delle mie visioni sul software libero e sulla diffusione di Linux; probabilmente mi ha fatto bene partecipare attivamente a svariati progetti opensource e vedere/parlare con persone che usano Linux da decadi.

Credimi, al 90% di questa gente (che è il cuore di Linux e derivati) non frega un cazzo del marketshare, di soppiantare Microsoft o di conquistare il cuore dei neonati: lo fa per passione.

Allo stesso modo, io uso Linux per svariati motivi, nessuno mi costringe a farlo, solo che in alcuni campi di mio personalissimo interesse trovo un vantaggio evidente. Non me ne frega davvero niente della diffusione di Linux.



Apro poi una piccolissima parentesi: quasi la totalità dei kernel hackers attivi ha più di 50/60 anni, quelli giovani si contano davvero sulle dita di una mano. Il motivo è facile ed evidente: quelli più anziani hanno visto la nascita di Linux e seguito il suo sviluppo sin dal principio, quelli più giovani si sono dovuti "integrare" in più di 4 milioni di righe di codice scritte da altrettanti sviluppatori. Per questo motivo, secondo me, o dai piani alti cambiano filosofia e passano a del codice più facilmente portabile e leggibile (esempio microkernel), o nel giro di 10/15 anni Linux morirà definitivamente a causa del ricambio generazionale.
 
Alto