Il Droide ha scritto:
Non avevo mai letto così tante stronzate in così poche righe, bravissimi!
Sarà per questo che nVidia ha rilasciato PhysX prima con compatibilità per OpenGL e poi per DirectX, vero?
OpenGL di per se è un layer difficilissimo da utilizzare, nessuno consiglia di usarlo "puro" così com'è, perché è pensato per davvero troppe cose, non solo per i giochi. Volete fare i videogiochi? Usate le MILLEMILA librerie (open e no) che si basano su OpenGL.
Per dirne un paio: Irrlicht e Ogre, con cui ultimamente stanno uscendo parecchi giochi.
La ID Software da secoli utilizza OpenGL per il suo motore IDEngine e no, non lo fa solo perché è multipiattaforma, lo fa perché se riesci a "domare" le OpenGL tiri fuori effetti spettacolari. Basta vedere Doom 3, che quando è uscito era millenni avanti a qualsiasi altro gioco con le DirectX 10.
Che c'entra PhysX con la grafica? Quello è un motore fisico e sì, magari in quel caso è ben più facile usare le OpenGL, perché più aperte.
Però non è una necessità di tutti creare un intero motore.
Quello che vorrebbero i più è un bel pacchetto di API con cui interfacciarsi.
Quelle di OpenGL fanno schifo, MS invece ha investito parecchio per renderle belle, documentate e funzionali.
Poi tu mi puoi dire che le OpenGL risolvono la fame nel mondo, ma se sono un inferno da utilizzare, non c'è confronto.
Ogre 3D è meraviglioso e sì, molti lo stanno usando.
Anche Source è stato portato su OpenGL, ma qui stiamo già parlando di alti livelli.
Molti produttori implementano ancora i loro engine e se hanno a che fare con interfacce complicate per una fetta di mercato in più ridicola, non credo sceglieranno la via più difficile (e costosa).
Quello che penso IO poi è diverso, i discorsi che faccio ora sono decisamente pragmatici/pratici.
Il Droide ha scritto:
Che colpa dai a Linux se quelli di nVidia non sono capaci di rilasciare un DKMS fatto per bene?
ATi rilascia periodicamente i driver fglrx (e non ricordo il nome di quello per le nuove Radeon) con un DKMS che si autoaggiorna tranquillamente assieme al kernel.
Allora anche a me Windows 7 fa schifo perché Eclipse non mi si aggiorna automaticamente ma devo andare nel sito a farlo. Cazzo, Microsoft lo sa che voglio un software di terze parti sempre aggiornato, perché non lo fa? Mi sembra così semplice.
Non è solo il discorso NVidia (che secondo me potrebbe essere migliorato).
Il punto è che o i driver ce li hai già (moduli del kernel) o molto probabilmente ti attacchi al cazzo e/o ti tocca fare a mano.
Eclipse l'ho appena aggiornato senza andare in nessun sito.
Windows spesso mi dice che Avira non è aggiornato (notifica che posso disattivare volendo) e se gli dico "Ok, pensaci tu", lo aggiorna lui senza farmi aprire l'antivirus.
Se ho dei driver più vecchi di quelli su Windows Update (Nvidia compresi), me li mostra come opzionali nel caso volessi installarli.
Capirai che negli anni hanno fatto passi da gigante in questo senso, perché gli utenti si erano ben rotti il cazzo di installare driver su driver.
Il Droide ha scritto:
Esclusa la scheda video io non ho MAI dovuto installare un driver in tutta la mia vita, neanche per utilizzare il cellulare come Modem. Attacco una tastiera e funziona sin dall'inizio, non mi deve andare a cercare dei driver in un repository, mentre su Windows no. Se sono offline non uso la tastiera, easy.
Smettiamola con sta stronzata, è davvero infantile. Il kernel di Linux che viene "shippato" di default copre il 99,9% dell'utenza, ha tutti i driver base per far funzionare qualsiasi periferica. Qualche periferica potrebbe non funzionare (vedi la chiavetta WiFi di Ogh, che comunque sono sicuro si possa far funzionare), ma sono rare eccezioni.
Giusto per dirne una: la mia webcam (Trust modello abbastanza vecchio) non funziona su Windows 7 per mancanza dei driver mentre funziona divinamente su Linux. Perché? Perché in assenza di driver specifici il kernel ne usa uno "generale" e - guarda caso - funziona.
No, da Windows XP è stata introdotta una notevole quantità di drivers generici. Una tastiera funzionerà al 99,9%.
Su Seven poi la cosa è decisamente migliorata.
Io su Windows al contrario tuo non ho mai installato i driver della tastiera. Nemmeno di quella a infrarossi che usavamo sulla streamingbox con XP.
Che poi ci siano driver che non funzionano sull'uno o sull'altro OS è normale. Ci sono sempre eccezioni e Linux è sfavorito dal monopolio di mercato di MS, che porta i produttori a fottersene di scrivere driver.
Quello che lamento da utente, è il mancato supporto per i driver che invece ci sono.
Non è vero che sono tutti nel kernel, purtroppo non è così per la maggior parte dei dispositivi, perché giustamente si sceglie di distribuirli a parte (per un discorso di aggiornamento).
Quindi perché non migliorare il riconoscimento delle periferiche e creare un repository di driver da cui attingere?
Così tutto quello che non è nel kernel, me lo cerco online.
Insomma, il funzionamento di Windows Update non è stupido, soprattutto oggi che internet è una realtà diffusissima.
Quello che non ti posso offrire, lo cerco e se lo trovo lo installo risparmiandoti la fatica di farlo a mano.
Io credo che ogni SO dovrebbe integrare una filosofia del genere.
Il Droide ha scritto:
Hai idea di quante persone sia formato un team di sviluppo? No perché probabilmente ignori il basilare concetto di "sviluppo in squadra": io mi occupo di una cosa, tu di un'altra. Il team grafico di Canonical è tipo l'8% di tutta Canonical.
(Poi tralasciamo il fatto che a me stia sul cazzo Shuttleworth perché è un ipocrita del cazzo che ruba i soldi a GNOME, ma di fatto Canonical è uno dei team di sviluppo più attivi di tutta la comunità opensource, secondi solo a redhat forse)
Bene, quell'8% probabilmente poteva essere pagato per fare altro.
Io sinceramente non ho visto grossi improvement in Ubuntu negli ultimi anni, se non ad alto livello (interfaccia/applicazioni).
Sul basso riscontro i soliti problemi di sempre.
Canonical poi ovviamente fa gli interessi dei suoi clienti, che sicuramente usano Ubuntu a livello server/aziendale ed è giustissimo così.
Ma ciò che non è questo, a me è parso più che altro un "Ehi, abbelliamolo e facciamo tante cose carine", scordandosi di tutto il resto.
Poi il mio è un feedback da utente, non ho idea di dove siano concentrati gli investimenti di preciso.
Quello che mi fa incazzare lo sai, è la frammentazione.
Un repository di driver sicuramente è complicato da implementare anche per questo ed infatti mi chiedo "In un contesto dove ognuno tira avanti la sua barchetta, ha più senso investire sulle parti in comune o su quelle che caratterizzano/favoriscono il proprio prodotto(v. Unity)?".
Il Droide ha scritto:
GNOME 2.x "vive" dal 2003, è stato completamente cestinato quest'anno con GNOME 3 (non hanno neanche un decimo di riga di codice in comune).
X.Org esiste dal 2004/2005, prima c'era XFree86, sempre degli sviluppatori di X. X.Org e XFree86 condividevano soltanto il file di configurazione per motivi di compatibilità, ma quel file è stato cestinato ormai da un paio d'anni.
Il kernel di Linux, dalla versione 2.6.30 (circa) è stato praticamente riscritto "from scratch" in moltissime parti fondamentali, e giusto ora stan discutendo anche il cambiare lo scheduler (CFS, attivo dal 2004) con un altro più veloce.
I progressi ci sono e vanno riconosciuti, questo è indubbio.
Quando ho visto "udev" ho pensato "cazzogigafigata!" e secondo me sono proprio queste cose che vanno migliorate.
Ma chi finanzia questi sviluppiù
Canonical (per dirne una) ha più interesse ad investire su udev o a prendere le cose che già ci sono per farle funzionare come meglio si riesce e magari abbellirle con una interfaccina che le renda usabili?
Quale di queste aziende ha la lungimiranza ed il coraggio di dire "Cazzo, devo dedicare dei fondi per riscrivere (ancora una volta) le API di OpenGL, così in questo modo posso migliorare Linux e di conseguenza la mia distribuzione"?
Insomma, questi sono i grossi difetti del mondo "non proprietario", i grossi difetti della democrazia informatica, che non è scontato abbia successo (in termini di risultati).
Il risultato, come già si discuteva giorni fa, è che GoboLinux ad esempio è considerato da 4 gatti e non sai quanto mi faccia incazzare, perché potrebbe veramente imporsi come standard comune sul quale contribuire tutti assieme.
Il Droide ha scritto:
Ma che cazzo parlate a vanvera? Il codice degli anni '80 ce l'ha l'Intel nei suoi processori (il subset d'istruzioni dell'8080 ha continuato ad esistere fino all'i3), ce l'ha la Microsoft nel suo Kernel (applicazioni di Windows 95 funzionano ancora su Windows 7. Mi spiegate il PERCHÉ?!).
Funzionano in compatibility mode, per un discorso prettamente commerciale.
Molte aziende usano ancora software del '95, sia a livello di OS, sia a livello di istruzioni sulla CPU.
Quando OS X ha abbandonato (passando ad Intel) il supporto alla preistoria, moltissima gente si è incazzata ed anche nel mio piccolo, avevamo parecchi clienti che utilizzavano software scritto negli anni '90.