TheDaddy ha scritto:Ma un qualsiasi pc non da le stesse emozioni di una scheda tipo SAM o X1000.
E' la stessa cosa che pensavo 20 anni fa con l'Amiga.
Poi sono cresciuto, e le emozioni le ho riservate a cose umanamente ben più nobili rispetto a dei banali pezzi di latta...
Lo è a livello di core "principale", ma è un peccato che abbia la cache L2 che giri al massimo a frequenza dimezzata rispetto al core.
Inoltre non ha Altivec, ma apposite istruzioni DSP, per cui per sfruttarlo segue codice ad hoc, ma se manca già quello che usa Altivec, figuriamoci quello apposito per questa CPU.
Pensate che può avere fino a sedici core.
E pensa che ne puoi sfruttare soltanto uno.
Non riesci a sfruttare le GPU moderne, che hanno potenza di calcolo da vendere, e pensi di poter sfruttare chip dedicati?
Monta 8 dual core arm11 al suo interno e vari DSP. Questo per dire che le soluzioni ci sono. Implementarle, però, sembra tutto un'altro discorso.
Più che altro se devi andare a sfruttare degli ARM, tanto vale farlo nativamente, portandoci i vari AmigaOS-like.
Considerando poi che a volte la voglia di collaborare manca, c'è davvero di che essere perplessi.
No, manca la mano d'opera. E' diverso.
Sempre basati sul 476 di IBM, ci sono questi costruttori cinesi:
C*Core C1000 is a family of 476FP core based embedded processors for consumer electronics.
ChinaChip CC2000 is a 476FP core based processor with integrated DSP and GPU for game consoles.
Il china chip CC2000, come vedete, integra anche DSP e GPU.
Ti sei chiesto perché si parla spesso di DSP e mai di unità SIMD come Altivec?
Perché il target è rappresentato dal mercato embedded, e non desktop.
Anche le CPU usate nelle SAM hanno istruzioni DSP dedicate. Hai mai visto qualcuno che le abbia usate? Pensi che in futuro qualcuno lo farà?
Cerchiamo di essere realisti e coi piedi ben piantati per terra.
DAX ha scritto:@cdimauro
La potenza effettiva a questo punto non ci è data saperla,
Cosa intendi con "effettiva"? Perché quella teorica è stata già snocciolata da un pezzo, e da lì non si scappa: è il limite superiore.
si stanno usando software vecchi che pre-datano l'HW, driver e settings HW preliminari (gia si sopetta una "misconfiguration", oppure una di tipo pre-beta atta alla massima stabilità, debug-mode attivo etc.)
Non diciamo eresie DAX, cercando di dipingere la situazione più bella di quella s'è dimostrata di essere nella realtà.
Come già detto, il software provato finora stressa la CPU e/o la memoria. Non aspettatevi grandi cambiamenti con qualche tweak alla memoria o, peggio ancora, coi driver aggiornati, perché questi ultimi in particolare servono a tutt'altra cosa.
Giusto per essere chiari, il PA6T, al pari di qualunque altro processore PowerPC, è impegnato nello smazzarsi il codice e i dati che gli sono stati forniti, e lo fa impegnando già le sue risorse interne, andando ogni tanto verso la memoria e prelevare blocchi di dati da elaborare (Altivec, in particolare, è in grado di gestire un certo numero di stream diversi, con logica di prefetch, quindi riesce ad "anticipare" le richieste, ammortizzando il costo dell'accesso alla più lenta memoria di sistema).
e un solo core.
E tale rimarrà ancora per tanto tempo.
Inoltre, come ho già detto diverse volte, non tutti i problemi sono parallelizzabili o comunque presentano difficoltà nel farlo e colli di bottiglia. Scordatevi l'emulazione che trae vantaggio da più core, giusto per fare l'esempio più eloquente.
A parte questo, oltre al s.o. servirebbe il supporto da parte del software. Quello che supporta Altivec latita, e tu pensi che verrebbe scritto codice ad hoc (perché questo è necessario fare, mentre con Altivec il lavoro è di gran lunga inferiore) per farlo?
So che questi bench li hai visti e che qui l'Atom non c'è, tuttavia il PA6T a soli 1.7Ghz si comporta bene contro il G5, e qui si tratta della Lockheed Martin, un po di credito glielo si può anche dare.
[... Immagini ...]
Non ho mica detto che sono test falsi o inutili. Ho detto che si tratta di ambiti particolari e sono casi molto rari in cui questa CPU si fa valere.
Anche qui, giusto per essere chiari: per caso ti aspetti di vedere Mplayer, Lame, Blender schizzare alla velocità della luce con codice appositamente ottimizzato?
Toglietevelo dalla testa e rassegnatevi, perché non vedrete mai numeri come quelli di quel documento nelle applicazioni che normalmente utilizzate/erete.
Ho anche sentito alcuni developers e sono ottimisti sull'implementazione dell'SMP (sono gia state affrontate una serie di problematiche),
Anch'io ho letto tante cose. DA ANNI.
Per cui ormai sono in modalità "san Tommaso".

insomma, sempre d'accordo su tutto, però il punto focale è semplicemnte che alla fine del processo evolutivo si avranno delle prestazioni nell' "expected range" della platea interessata (che è specifica/nicchia) tutto qui.
Questo è ovvio. La gente avrà la migliore macchina su cui far girare OS4, non ci piove.
Quel che è in discussione è il quanto e se ne vale la pena, per cui questi test sono importanti per capire cosa realmente si avrà fra le mani.
Poi ognuno deciderà quello che vuole, ma almeno avrà un quadro più chiaro.
andres ha scritto:beh, però scusa Cesare non è che quando vengono forniti dati "opposti" (peraltro direi più affidabili di test fatti da utenti con versioni diverse dei software, con un OS in beta che usa un solo core, e su piattaforme diverse) si può dire semplicemente "a questi non ci credo".
Mai detto questo, mi pare. Vatti a rivedere il mio precedente messaggio e la mia risposta a DAX.
A me piace dare il giusto peso alle cose.
Il punto è che allo stato attuale non ci sono numeri veramente chiari.
Quindi quelli con l'X1000 hanno postato fuffa? Sono dei falsari? Andiamo bene.

DAX ha scritto:@Alblino
C'era un bench di tipo militare (postato tempo fa su AW) dove codice ottimizzato specificatamente per il PA6T performava 4 volte piu veloce di un G5 (+400%), in base a quello cosa dovremmo dire?
Che in QUELLO specifico contesto i numeri sono quelli. E niente, specialmente logica alla mano, ti consente di generalizzare il concetto alla totalità dei casi.
Tuttavia ci tengo a sottolineare per l'ennesima volta come anche ben sfruttata l'X1000 "sia quello che sia"
Vale quanto già detto. Primo non puoi pensare che ottimizzando il codice si ottengano sempre quei numeri; nella maniera più assoluta. Secondo, servirebbe il codice ottimizzato, e che possa arrivare risulta tutt'altro che scontato.
E' un hobby ragazzi, un bell'hobby, che ognuno se lo goda come meglio crede

Questa è una santa verità.
Tuxedo ha scritto:Vabè...vedremo...e speriamo che si siano davvero sbagliati da qualche parte...
Non aspettarti grandi cose.
DAX ha scritto:Infine nota come la maggior parte dei bench pubblicati siano in base a software che di uguale ha solo il "nome", poi sono versioni diverse, tweackate diversamente da diversi utenti (e si sa che in ambito Mos hanno dei coders davvero niente male quando si tratta di ottimizare).
Hai delle prove su questo? Non mi pare che i coder MOS si siano divertiti a scrivere codice ad hoc (per cosa poi?) per far girare meglio quei programmi su MOS.
Al massimo si può pensare di cambiare qualche parametro di compilazione, ma in genere delle migliorie ne beneficiano tutti i processori PowerPC (tranne quando abiliti Altivec, ovviamente: devi avere una CPU che la supporti).
Il s.o. in questo non c'entra proprio nulla.
L'unico test che gira su un software che per lo meno viene dalla stessa pool (Mui-Mplayer) da risultati ben diversi (a favore dell'X1000) con tutto ciò che pre-data l'HW e non credo nemmeno sia la stessa versione di MOS (mi pare che hanno portato una versione di poco antecedente, ma potrei sbagliarmi).
L'importante è che la versione di partenza sia la stessa. Tanto una volta compilato il binario, la CPU sarà messa sotto torchio e del s.o. che c'è sotto se ne sbatterà allegramente.
L'ideale a questo punto sarebbe portare Mos su X1000 e fare test con lo stesso SO e gli stessi programmi (rispetto ai Mac intendo) o comunque aspettare software e SO aggiornati.
Non serve, come già detto. Stiamo parlando di codice, non di patate vendute al mercato.