UNITY STA DISTRUGGENDO UBUNTU? LINUX MINT SCATTA IN TESTA!

Posted on 26 novembre 2011. Filed under: informatica | Tag:, , , , , , , , |

Un breve articolo su Punto Informatico mette in risalto la veloce discesa in classifica di Ubuntu, per popolarità, tra le distribuzioni Linux. La classifica è quella pubblicata dal sito Distrowatch.

Tale debacle non deve stupire più di tanto. La scelta di adottare Unity come desktop ha infastidito la maggior parte degli utenti, me compreso, anche se io sono un utente solo occasionale di Ubuntu. Il guaio, come ho avuto già modo di scrivere in precedenza, riguarda la (secondo me errata) convinzione che un sistema operativo nato per il desktop, o al massimo per i notebook, debba adattarsi anche ai tablet: quindi icone e pulsanti enormi che possano essere agevolmente azionati con le dita, oltre che con il tradizionale mouse. Una grafica grossolana e gigantesca che appare tanto più stupida quando visualizzata sugli attuali monitor superiosi ai 20 pollici. Unity a tutto ciò unisce una odiosa (per me) barra laterale e verticale sul lato sinistro che non può essere spostata (altrimenti io l’avrei posizionata sul fondo). Il problema, in prospettiva, non è solo di Ubuntu ma anche di Windows, che sembra seguire anche se solo in parte la medesima strada con le ormai famose piastrelle di Windows 8 ed anche di Mac OSX che sta provando a commettere gli stessi errori (od orrori): vedasi l’inutile e ridicolo Launchpad che, tanto per fare un esempio, visualizza su un iMac da 27" le icone dei programmi esattamente come avviene sul minuscolo schermo di un iPhone. Follia!

Ubuntu quindi scende in classifica dietro a Open Suse e Fedora. Al primo posto c’è quella che io considero, ormai, la migliore distribuzione Linux: Mint.

Ne ho già parlato in passato, ma Linux Mint merita ancora due parole, ed anche di più. Affidabile, con una grafica elegante, un bel menù, una barra delle applicazioni in basso come piace a me. Affidabile, molto ben scritta, completa. Mint si può scaricare, grats, in più di una versione: c’è quella derivata da Ubuntu (ma senza gli errori-orrori di Ubuntu), e quella derivata da Debian. La versione Ubuntu segue i rilasci della versione ufficiale, quindi ogni circa sei mesi c’è una nuova release stabile, mentre quella basata su Debian è una distribuzione rolling che riceve costanti aggiornamenti e non deve essere reinstallata da capo.

L’ultima versione derivata da Ubuntu non riprende l’odioso Unity, per fortuna, ma si basa su Gnome 3. Non è che Gnome 3 sia, secondo me, il massimo, ma è sempre meglio di Unity. Anche qui però abbiamo una interfaccia che non soddisfa pienamente. Cosa ti combina, allora, il team che sviluppa Linux Mint? Hanno integrato Gnome 3 con MGSE (Mint Gnome Shell Extensions), che consiste in una barra delle applicazioni a metà strada tra quella di Windows Seven e il dock di Mac OSX. Inoltre, grazie ad un fork di Gnome 2 chiamato Mate, si può agevolmente passare al tradizionale desktop di Linux Mint in qualsiasi momento. Il risultato è che Linux Mint ha staccato Ubuntu, nella classifica di Distrowatch, di parecchie lunghezze, e ciò testimonia meglio di ogni altra cosa che gli utenti desktop non vogliono assurde interfacce grafiche da tablet.

Linux Mint è la migliore distribuzione Linux attualmente esistente perché è capace di capire ed interpretare bene i desiderata degli utenti. Punto.

Attualmente io uso la versione Debian di Mint (la sto usando anche ora mentre scrivo), un po’ meno amichevole di quella derivata da Ubuntu ma che non deve essere reinstallata ogni sei mesi per avere la versione nuova.

Leggi l'articolo intero | Make a Comment ( 3 so far )

UBUNTU 11.04 – NEL NOME DI UNITY

Posted on 25 aprile 2011. Filed under: informatica | Tag:, , , , , |

UnityCnnaIl cambiamento è una cosa che non sempre piace, mentre spesso fa paura. Saper cogliere (nel cambiamento) le opportunità è una dote che non tutti hanno, ma che tutti possono sviluppare. Ad innovare, spesso nell’immediato ci si rimette, ma alla lunga può pagare. Insomma, quando c’è qualcosa di nuovo che ci sottrae al nostro sonnacchioso tran tran, che ci obbliga a cambiare sia pure di poco abitudini, modus operandi eccetera, c’è sempre qualcuno che storce il naso, che pensa era meglio prima, che tenta disperatamente di ripristinare le vecchie cose esattamente come erano.
Tutto ciò sta accadendo nel mondo Ubuntu. La celebre distribuzione Linux infatti ha deciso di adottare, come desktop attivato di default, Unity, un sottosistema grafico che finora aveva adottato solo nella versione per netbook. Innanzitutto (sto provando la beta 2, la versione definitiva sarà scaricabile tra pochi giorni e precisamente il 28 Aprile) al momento di fare il login si potrà specificare se attivare la versione tradizionale di Gnome (Ubuntu Classic) oppure Unity (Ubuntu). Come vedete il nome puro e semplice della distro è associato ad Unity, a meno che le cose non cambino nella versione definitiva. E’ un segnale forte di cambiamento su cui la comunità Linux sta discutendo in modo appassionato, con valutazioni controverse.

In sostanza Unity è una barra laterale verticale, posta a sinistra del desktop, il cui funzionamento è un misto tra la barra delle applicazioni di Windows Seven e il dock di MacOS. Le icone dei programmi si possono lasciare lì per sempre, ma solo dopo essere stati lanciati (in pratica, non si può inserire l’icona a programma disattivato, così come è invece possibile in Windows). Il programma attivo si riconosce perché a sinistra dell’icona appare una freccetta bianca. Quando la barra entra in contatto con una finestra in cui gira un programma, scompare; per farla riapparire è sufficiente portare il cursore del mouse verso il bordo destro dello schermo. Analogamente a MacOS, c’è una icona dal nome Applicazioni che apre una finestra con tutti i programmi installati sul computer. Da notare che all’interno di questa finestra è possibile attivare un sottomenù con le applicazioni suddivise per categoria; infatti Unity non ci mostra tutti i programmi installati, ma divide la schermata in tre spazi, in cui campeggiano icone piuttosto grosse, che distinguono tra applicazioni lanciate di recente, lanciate più spesso, eccetera… Occorrono altri clic per visualizzarle tutte.

Mi piace Unity? Sì e no. Da una parte sono uno che apprezza le novità, poi trovo la barra colorata e soprattutto apprezzo che sparisca da sola quando non serva… Dall’altra, ho l’impressione che stiamo parlando di una interfaccia ancora acerba, poco personalizzabile ed ancora non del tutto funzionale. Per esempio, non sembra possibile spostarla a destra, mutarne le dimensioni ed il comportamento. (Uso il condizionale perché non posso dire di averla testata veramente a fondo). Inoltre ho la netta sensazione che certe volte, per cercare un programma x, questo se ne resti ben celato nel menù ed occorrano troppi clic per raggiungerlo, ma forse è solo questione di farci l’abitudine.

Un’altra cosa importante da dire è che non c’è più la barra inferiore, quella dove andavano a ridursi ad icona le finestre aperte, sostituita in tutto e per tutto dalla barra verticale, mentre quella superiore rimane ed ha un funzionamento del tutto analogo a quella di MacOS, con i menù che cambiano in modo dinamico secondo l’applicazione attiva in quel momento; anzi, l’integrazione con il programma in corso è ancora più forte: infatti se si allarga la finestra a tutto schermo, finiscono nella suddetta barra anche i tre classici bottoni di funzionamento della finestra. Bello, brutto? Dipende. Io per esempio non sono un fan sfegatato della barra superiore stile MacOS, tutt’altro.

Gira voce che la versione definitiva tornerà ad avere Gnome come ambiente di lavoro di default. Potrebbe anche essere. Sparisce infatti la versione netbook a favore di una versione unica che permetterà di scegliere tra i due ambienti grafici.

Solo il tempo potrà dirci se Canonical (la società che gestisce Ubuntu) avrà compiuto la scelta giusta.

Leggi l'articolo intero | Make a Comment ( None so far )

COME COSTRUIRE UNA CHIAVETTA USB TUTTOFARE

Posted on 16 aprile 2011. Filed under: informatica | Tag:, , , , , , , , , , , |

Ultimamente mi sto divertendo molto con Linux: è tutto gratis e si possono provare senza costi un sacco di programmi e distribuzioni. Molte di queste ultime (quasi tutte) sono inoltre live CD, ovvero facendo il boot da CD si possono far girare senza nessuna installazione, lasciando inalterato il file system sul disco rigido del PC. Naturalmente, se dopo aver provato si vuole installare definitivamente il sistema operativo, c’è l’opzione per farlo, e qui debbo subito dire che i programmi di installazione delle distribuzioni Linux sono enormemente migliorati rispetto ad alcuni anni fa: le distribuzioni più “facili” e famose hanno ormai un sistema di installazione grafico che rende facile l’operazione, anche a chi è meno esperto.

Questa enorme versatilità del pinguino rende possibili soluzioni software portatili che in certi casi possono essere veramente utili. Pensiamo per esempio alla possibilità di accedere al disco rigido e quindi ai file di una macchina il cui sistema operativo non si avvia più a causa di un problema software; pensiamo alla possibilità di cancellare un file altrimenti bloccato mentre il sistema operativo originario è in funzione; pensiamo ad un PC incasinato da un virus talmente rognoso da poterlo eliminare solo se non ha ancora preso possesso del PC in cui si è installato. Pensiamo anche, perché no, di dover fare indagini di polizia sul contenuto di un PC senza assolutamente intaccare il suo file system per non mandare a puttane le eventuali prove presenti. Infine possiamo anche immaginare di usare temporaneamente un PC che non è nostro ed in cui non vogliamolasciare traccia della nostra attività, per motivi di privacy o semplicemente perché non vogliamo creare fastidi a chi ce lo ha prestato.  Tutto questo, quindi, si può fare con una distribuzione “live” ed i software adatti, il che comporterebbe il fatto di usare una pluralità di CD. Invece, si può ottenere agevolmente tutto questo con una chiavetta USB appositamente attrezzata, col solo svantaggio che i PC più vecchi spesso non consentono il boot da USB. Ma pazienza, volete mettere la comodità di avere in tasca un vero e proprio coltellino svizzero per le emergenze?

Una delle prime cose da fare è andare sul sito Pendrivelinux.com, specializzato proprio in questo, e seguire le istruzioni… Io ho usato il programma gratuito YUMI che permette di creare una penna USB dotata di multiboot, con l’unico limite dello spazio disponibile. Io ho usato una chiavetta da 16 giga e, dopo averci stipato di tutto e di più, ho ancora circa 6 giga di spazio libero per lo storage dei dati.

Cosa possiamo metterci dentro? Una o più distribuzioni live di Linux, anche nelle versioni per netbook, e si può creare persino una versione portable di Windows Severn, se pensiamo di averne bisogno. Poi si possono mettere altre utilità come, per esempio, programmo antivirus, oppure capaci di partizionare il disco rigido, di testare la memoria, e via discorrendo. Naturalmente la prima cosa da fare è procurarsi le immagini ISO dei live CD che vogliamo utilizzare; paradossalmente il programma YUMI funziona (perfettamente) sotto Windows, anche Seven a 64 bit. Alcune distribuzioni supportate da YUMI sono indicate espressamente (l’elenco è lungo), ma c’è una funzione che permette di importare alcune “ISO” diverse (rimane da vedere con quale risultato; nel mio caso tutto è andato bene con qualche versione più recente di quelle indicate nel software).

L’operazione è semplice perché YUMI fa praticamente tutto da solo!

Io ci ho messo Linux Mint, Ubuntu, SLAX, Puppy Linux, i live CD di alcuni antivirus, Memtest, insomma tanta di quella roba da non ricordarmela tutta. Facendo il boot dalla chiavetta realizzata in questo modo, un semplice ma funzionale menù ci permetterà di scegliere cosa vogliamo fare. E funziona tutto! Qualche distribuzione litiga un po’ con qualche periferica (soprattutto con le schede di rete, wifi e cablate) per cui è importante avere più di una distribuzione se si vuole essere sicuri di operare sempre e comunque.

E se proprio vogliamo metterci nei panni degli investigatori, possiamo inserire tra le distro anche DEFT Linux, cosa che io per ora non ho fatto: una distribuzione live appositamente realizzata per le indagini forensi!

Leggi l'articolo intero | Make a Comment ( None so far )

LINUX ALLA MENTA

Posted on 28 marzo 2011. Filed under: informatica | Tag:, , , , , , , , |

Non voglio passare per quello che non sono, ovverossia per un guru dell’informatica. Sono semplicemente uno curioso, e da assoluto autodidatta mi sono sorbito, negli anni, il Commodore 64, poi l’Amiga sempre della Commodore, il primo PC con Windows 95 e tutti i Windows successivi fino a Seven. Adesso a casa ho anche un Mac, ma ultimamente mi è presa la mania di provare le distribuzioni Linux. Il sistema operativo del pinguino non è una vera e propria novità per me: già molti anni fa avevo installato, ed usato per un po’ di tempo, una Red Hat (la 6 o giù di lì), che adesso si chiama Fedora. Successivamente ricordo una Mandrake (oggi Mandriva) e via via, negli anni, le ho provate un po’ tutte, anche se non a fondo. Il mondo di Linux all’inizio può apparire ostico, un po’ difficile, per fare alcune cose bisogna ricorrere ancora alla odiosa linea di comando, ma con il passare del tempo gli ambienti desktop si sono perfezionati, ed attualmente alcune distribuzioni rivaleggiano, per facilità di installazione e di uso, con i costosi sistemi operativi proprietari: basti pensare ad Ubuntu, che in effetti parecchia gente comincia ad utilizzare, ma anche Fedora, Open Suse, ed altri sono ormai in grado di offrire una confortevole esperienza d’uso. Vantaggi: costo zero, non esistono virus (almeno sinora), dopo l’installazione abbiamo già pronti i programmi di uso più comune, ed infine usare Linux in certi ambienti fa figo, il che non guasta.
Svantaggi: spesso ci troviamo di fronte ad una interfaccia grafica non così coerente come con Windows o Mac. Con certe distribuzioni, installare i programmi è un quiz: ogni distribuzione ha il sistema suo. In effetti, si parla di Linux come fosse una cosa sola, ed in parte è così, ma dobbiamo considerarlo piuttosto come una galassia popolata di realtà differenti. Per fortuna ultimamente sta prendendo piede una sorta di installazione automatica: si scarica il file e all’installazione provvede il computer. Bello, vero? Un po’ come avviene con Mac dall’AppStore, solo che in questo caso è tutto gratis. Non solo l’interfaccia grafica può cambiare molto da distribuzione a distribuzione, ma anche all’interno di una stessa distribuzione si può scegliere se adottare un  desktop oppure un altro, perché in Linux l’ambiente grafico è separato dal sistema operativo vero e proprio.
Tutto questo preambolo per tessere le lodi di… rullo di tamburi… una distribuzione che mi sta veramente deliziando: Linux alla menta, ovvero Linux Mint! Alla menta ma non solo: mint in inglese non significa solo menta, ma anche nuovo di zecca.

Non si tratta di una novità, se ne parla da tempo ed io stesso anni fa ne avevo installato una copia, senza però approfondirne troppo l’uso. Attualmente Linux Mint è fisso su uno dei miei PC, in dual boot con Seven, ed ha preso il posto di Ubuntu e Kubuntu messi insieme. Perché, secondo me, Linux Mint è meglio.

Ora qualche estremista linuxiano puro e duro dirà che queste sono distribuzioni per “utonti”, troppo facili, un po’ bastarde. Ma non me ne frega niente, Linux Mint è una bellissima distribuzione, ed è l’ideale per chi non ha mai osato avvicinarsi a Linux. Io la raccomando proprio a chi abbia voglia di cimentarsi con questo sistema operativo senza averlo mai fatto in precedenza.
Come sempre con Linux bisogna scaricare un file immagine dal sito e poi masterizzare un CD o DVD di installazione. Con molte distro (come in gergo vengono chiamate le distribuzioni) il CD così creato è un LiveCD: è sufficiente fare il boot del nostro PC dal lettore di CD per trovarci in ambiente Linux senza aver dovuto installare niente su disco. Anche Linux Mint ha questa caratteristica, per cui si può provare il sistema operativo senza modificare nulla nel proprio disco rigido. Se non vi piacerà, dopo averlo provato basta togliere il CD dal lettore, e tutto torna uguale a prima. Altrimenti, c’è la possibilità di installarlo, “piallando” tutto il disco oppure, cosa un po’ più complicata, affiancandolo ad un eventuale sistema operativo già presente. Ma le note tecniche esulano dallo scopo di questo articolo, per cui passo a dirvi perché mi piace così tanto Linux Mint: in primo luogo, è estremamente curato ed elegante, pulito, essenziale, come piace a me.

Questa sopra è la scrivania del mio PC con Linux Mint. Pulita, senza fronzoli, con il piano di lavoro sgombro che di default presenta solo due cartelle, ma si possono togliere. Basta però cliccare su menù, e si attiva uno dei migliori menù tipo start che si siano mai visti. Linux Mint esiste in numerose versioni, ma quella di cui sto parlando è la main (la principale) derivata da Ubuntu (la versione più recente al momento in cui scrivo è la 10).

Il gruppo di sviluppo che lavora su Linux Mint ha come obiettivo principale la soddisfazione dell’utente, e si vede. Non ci sono quindi prese di posizione come, per esempio, il rifiuto di utilizzare driver proprietari, ancorché gratuiti: subito dopo l’installazione, Linux Mint vi avvertirà se ci sono, per esempio, driver proprietari per la vostra scheda video, e vi consiglierà di installarli.

Insomma, la finisco qua. Sottolineo che funziona tutto, e bene. Il sistema è piuttosto veloce. Una chicca: Linux Mint ha riconosciuto senza battere ciglio, e senza la necessità di intervento da parte mia, il mio sistema fake-raid di dischi, operazione nella quale hanno fallito tutte le altre distro che ho provato. Questo significa che quando sono al lavoro con Linux Mint, come in questo momento mentre scrivo, posso navigare tra le cartelle di Windows e condividere con grande facilità documenti tra i due sistemi operativi.

Leggi l'articolo intero | Make a Comment ( None so far )

UN MAC IN CASA (RECENSIONE iMAC 27)

Posted on 8 gennaio 2011. Filed under: informatica | Tag:, , , , , , , , , , , , , , , , , , , , , , , |

Be’, prima o poi doveva accadere… Da una settimana circa la mia rete domestica ha un nuovo componente, un iMac con schermo da 27 pollici (quasi una tv!). In precedenza non avevo mai seriamente preso in considerazione l’acquisto di un Mac, per i seguenti motivi: costo eccessivo dell’hardware, prodotti basati esclusivamente sul design (in sostanza, roba da fighetti), utilizzatori perlopiù fanatici, Steve Jobs che quando presenta un prodotto sembra un messia, sistema operativo poco flessibile (che funziona solo come vuole lui), politica commerciale basata sul marchio (in realtà Apple non produce niente). Insomma, confesso di aver nutrito antipatia nei confronti di Apple. Poi c’è stato l’incontro fortunato con l’iPhone, che mi ha fatto capire come i prodotti Apple siano costosi, è vero, ma anche molto ben costruiti. Poi, si è rotto un PC in sala, a casa, ed ho buttato là l’idea: perché non ci compriamo un Mac che è bello esteticamente ed in sala ci sta bene? Inoltre ci si può installare anche Windows…

Il bello del Mac è che è… bello da vedersi, elegante, ed anche comodo perché per farlo funzionare basta inserire il cavo dell’alimentazione elettrica. Monitor e PC sono in un blocco solo, di spessore compatto; sul retro ci sono 4 prese USB, l’uscita per le cuffie, la porta ethernet (per la rete cablata) ed anche una presa firewire. La tastiera (minimale, piccolina, senza tastierino numerico e senza tasto canc, che si simula con fn+backspace) è bluetooth, così come il mouse ed anche il trackpad. Quindi da dietro il Mac escono due soli fili, quello elettrico e il cavo di rete: un grosso passo avanti rispetto ad un tradizionale pc dove i componenti sono di più e tutti collegati tra loro tramite cavi. Una controindicazione consiste nel fatto che il Mac non è aggiornabile: l’utente non può cambiare i componenti interni, per esempio inserire un altro disco rigido, e se si guasta qualcosa bisogna mandare in assistenza tutto l’apparecchio, anche per un banale guasto al masterizzatore! Comunque nella mia sala il Mac fa la sua porca figura e la scrivania su cui è posato dona una sensazione di ordine, con l’imponente schermo che domina il tutto, la tastiera piccola ma stilosa, il mouse ed il trackpad di cui parlerò.

Tornando a descrivere il Mac, sempre sul retro (ma a sinistra) si trova il pulsante di accensione, perfettamente in linea con il retro dell’apparecchio, ma si trova facilmente anche senza guardare. Sul lato destro ci sono due fessure: una grande per il masterizzatore CD+DVD (niente bluray sui Mac, nemmeno come opzione, almeno finora) ed una piccola per le schede SD (Secure Digital), le più diffuse in ambito fotografico. Chi, come me, utilizza apparecchi semiprofessionali con schede Compact Flash, dovrà arrangiarsi con un lettore USB. Sempre sul retro dell’apparecchio spicca una grossa mela morsicata che nasconde l’antenna wifi.

Visto di fronte, il mio nuovo amico si presenta con il grande monitor padrone assoluto del look. E’ di tipo lucido, ricoperto da una lastra di vetro, che stando a quanto ho letto su internet è trattenuta solo da un sistema di calamite per cui bastano un paio di ventose per sollevarlo, per esempio per togliere eventuale polvere infiltratasi. In alto c’è la webcam integrata, un occhio piccolissimo in tasto spazio. Lo schermo lucido va di moda e fa figo, ma è più soggetto a riflessi fastidiosi. Premesso ciò, non ho notato particolari fastidi. Le casse acustiche, dal suono sufficiente (i bassi sono un po’ sacrificati) sono situate sul fondo dell’iMac, dirette verso il basso. Sempre sul fondo ci sono gli slot per ampliare la memoria di sistema, unica operazione concessa all’utente.

Il mio Mac l’ho ordinato direttamente dal sito della Apple ed è arrivato a casa in pochissimi giorni, considerando che c’erano le festività di mezzo. Perfettamente imballato, si estrae dalla scatola e si mette in funzione in un attimo. La configurazione da me prescelta è quella base con processore i3 a 3,2 GHz, 4 GB di ram, scheda video ATI Radeon HD 5670 con 512MB, disco rigido da 1 TB. Lo scopo era quello di ottenere il più vantaggioso rapporto prezzo/prestazioni, nei limiti di un budget prefissato. La prima cosa che il nuovo arrivato fa, non appena alimentato, è quella di emettere un suono non particolarmente accattivante, seguito da alcuni raggi di luce sgargiante, musica ritmata ed una serie di benvenuto in tutte le lingue. Poi chiede alcune cose (dove utilizzerai il tuo Mac, e per che cosa?) con conseguente tentazione di fornire risposte assurde (per es., sul treno). Chiede poi di scattare una foto per l’account di amministratore, ma si ostina a far lampeggiare lo schermo come un flash e la foto viene di merda, clamorosamente sovraesposta. Alla fine, si è finalmente operativi!

Avevo un po’ giochicchiato su un Mac in qualche centro commerciale, e basta. Nonostante la mia ignoranza in materia, in pochi istanti ho configurato la connessione di rete con un indirizzo IP fisso, ho disabilitato il wifi che non mi serve, ho creato gli account per tutta la famiglia, installato open office e videolan che hanno versioni anche per il Mac, e fatto qualche altra cosina senza alcuna difficoltà. Persino il NAS viene visto sotto la voce di menù Network, anche se compare con la sigla assurda del prodotto; non ho ancora provato a vedere se si può rinominare semplicemente come NAS, così come avviene con Windows grazie alla funzione Connetti unità di rete.

Circa la tastiera, ho già accennato che è bianca, elegante, ma molto piccola, praticamente come quella di un notebook, senza tastierino numerico separato. Ha un tasto dedicato per l’espulsione dei CD-DVD dallo slot laterale e per egolare la luminosità dello schermo. Ha comunque un certo peso, che la rende piuttosto stabile, ed è alimentata a pile. L’utlizzo è gradevole, ma forse per lunghe digitazioni una tastiera più tradizionale potrebbe essere meglio. Il mouse, pomposamente chiamato Magic Mouse, anch’esso bianco traslucido, ha il clic sinistro ed anche quello destro (che deve però essere abilitato tramite driver) senza l’apparente presenza di bottoni; al posto della rotella basta carezzare la superificie con un dito. Altri tipi di gesture servono a sfogliare pagine, eccetera… Io ho comprato anche il Magic Trackpad: in sostanza, un touchpad identico a quello presente sui portatili, solo molto più grande e cliccabile in modalità hardware. Inoltre è multitouch, consentendo per esempio l’ingrandimento di un’immagina allargando due dita. L’altezza è identica a quella della tastiera, per cui i due oggetti stanno bene affiancati e la tastiera, con il trackpad a fianco, sembra quasi di dimensioni standard.

Il sistema operativo MacOS X è facile da usare. Alcune cose mi lasciano un po’ perplesso (l’applicazione iPhoto ha un cestino suo e non usa quello di sistema; l’opzione taglia non c’è, ma in qualche applicazione sì; il finder non mi sembra il massimo, meglio esplora risorse di Windows; mi mancano alcune funzionalità di Windows, tipo i menù contestuali, che in Mac praticamente non esistono; la possibilità di ingrandire una finestra a metà schermo semplicemente trascinandola sino al bordo del desktop, le jumplist) ma potrò dare un giudizio più competente solo dopo averlo utilizzato un po’ più a lungo. Posso solo dire che chi viene da Windows non dovrebbe trovare particolari difficoltà, e nemmeno chi viene da Linux. Questi ultimi troveranno anzi familiare la cartella Home, che in MacOS si chiama Inizio, ma è la stessa cosa. Comunque nessuno in casa ha trovato difficoltà nel cominciare da subito ad utilizzare MacOS, anzi siamo partiti tutti con grande facilità!

Sembrerebbe inevitabile, a questo punto, un confronto con Windows. I forum sono pieni di fanboy della mela che attaccano i PC Microsoft. Sono discussioni abbastanza assurde, vi dimostrerò il perché. Innanzitutto, Apple vende computer, che adesso sono uguali in tutto e per tutto ai PC, mentre Microsoft vende software (a parte hardware di poco conto fabbricato da terzi). Vi suggerisce niente, questo? Pensate sul serio che Apple (che vende computer) e Microsoft (che vende software) possano essere aziende in concorrenza tra loro? Se così fosse, Microsoft scriverebbe software per MacOS (vedi Office) e Apple incoraggerebbe l’installazione di Windows sui propri pc (vedi bootcamp)? Il vero business di Apple è concentrato nell’hardware, e nella vendita di canzoni. Di Microsoft non gliene può fregare di meno, almeno sino a quando Microsoft rimarrà principalmente una software house, e viceversa a Microsoft non può che fare piacere se Apple vende parecchi pc su cui si possano installare anche i suoi software. Ora non voglio dire che non ci sia un minimo di concorrenza tra le due aziende, ma secondo me non è così accanita come credono alcuni appassionati. Comunque, tornando al confronto tra i due sistemi operativi, premesso che con MacOS sono agli inizi e non posso dare un giudizio definitivo, premesso anche che sono un utente smaliziato che usa abbastanza regolarmente pure Linux (per esempio ora sto scrivendo questo articolo usando il programma Blogilo su Kubuntu), il mio parere è che Windows Seven sia un gran bel sistema operativo, e rimane il mio preferito, soprattutto nella versione a 64 bit; MacOS è piacevole da usare ed è come se ti prendesse per mano nel fare ogni cosa, atteggiamento che può essere più o meno gradito a seconda dell’utilizzatore. E’ molto bello graficamente ed accompagna le operazioni con suoni accattivanti… Appare sin da subito stabile ed affidabile, ma la stessa cosa posso dirla per Windows 7, se correttamente installato, ed anche per Linux, che nella distribuzione Ubuntu/Kubuntu è anche facile da usare ed installare. Tirando le somme, secondo me non è il sistema operativo a fare la differenza tra un pc con Windows o con MacOS, ma sono altri aspetti: la sensibilità dell’acquirente al design, la disponbilità economica, l’attenzione più o meno marcata alla compatibilità e reperibilità dei programmi, sono tutti elementi che possono condurre ad una scelta oppure ad un’altra. A favore dei Mac, c’è la possibilità di installare anche Windows, mentre il contrario è molto difficile da farsi se non ricorrendo a copie appositamente modificate di MacOS che in alcuni casi richiedono addirittura la modifica del bios della scheda madre, con il rischio di cimpromettere la funzionalità di tutto il pc!

E veniamo alla installazione di Windows 7 sul Mac. Come anticipato, Apple fornisce una apposita utility, Assistente Bootcamp, che facilita enormemente l’operazione. Da qualche parte avevo letto che per installare Windows sarebbero stati necessari una tastiera ed un mouse USB, perché quelli bluetooth non avrebbero funzionato, ma non è vero. Lanciato il programma, questo prima di tutto procederà al partizionamento del disco nella misura da voi indicata (io ho fatto metà e metà), poi chiederà l’inserimento del disco di Windows. A questo punto il sistema si riavvia e parte l’installazione, proprio come se stessimo operando su qualsiasi PC. Un minimo di attenzione nel momento in cui dobbiamo indicare la partizione su cui installare (è quella di nome Bootcamp) altrimenti rischiamo di azzerare MacOS, ed attenzione anche a formattare in NTFS la medesima partizione. Alla fine, il sistema si riavvia di nuovo: espelliamo il disco di Windows ed inseriamo il disco di MacOS. Da questo strano connubio otterremo l’installazione dei driver necessari per il corretto funzionamento dell’hardware presente nel nostro iMac! Un ultimo riavvio e vedremo Windows Seven in tutto il suo splendore, perfettamente funzionante, inclusi tastiera, magic mouse, magic trachpad, videocamera, eccetera eccetera! Il tutto ha funzionato alla perfezione, senza intoppi. Da ora in avanti, premendo alt sulla tastiera subito dopo l’accensione dell’iMac, potremo scegliere tra Windows e MacOS; potremo scegliere anche con quale sistema operare di default senza effettuare alcuna scelta. Ultima chicca: avevo letto che le due partizioni non si sarebbero viste, ma non è vero. Non ho ancora provato ad effettuare operazioni di trafserimento file, ma da Windows si vede e si naviga tranquillamente nella partizione MacOS, così come da MacOS si vede e si naviga nella parizione NTFS di Windows.

Pochi giorni dopo il mio acquisto, Apple ha ufficialmente lanciato il Mac App Store, l’equivalente Mac dell’App Store per l’iPhone. Pressi stracciati per Aperture 3, il programma di ritocco fotografico sceso da 199 a 62,99 euro, che ho subito acquistato insieme a Pages (word processor), Keynote (l’equivalente di Powerpoint per le presentazioni) e Number (Excel). Questi software li ho appena visti, per cui non sono in grado di dare un giudizio degno di nota; si aggiungono a quelli già in dotazione che comprendono sostanzialmente il pacchetto iLife (che palle ‘sta i all’inizio di ogni parola!), ovvero iPhoto, simile a Windows Photo, Garage Band per la creazione di musica, che mi sembra un ottimo programma, ed iMovie per la creazione di filmati. Quest’ultimo è l’unico che ho veramente usato, sicuramente senza sfruttarne tutte le possibilità, per assemblare degli spezzoni video ed aggiungere titoli transizioni. Facendo un confronto con Movie Maker di Windows, quest’ultimo ha più transizioni, ma iMovie è un programma di caratura superiore, più professionale anche se più complesso da utilizzare.

Per concludere, ora ho messo piede sui tutti i tre mondi dell’informatica consumer (Windows, Linux e Mac)!…

 

Leggi l'articolo intero | Make a Comment ( None so far )

RECUPERARE DATI (CANCELLATI PER SBAGLIO) SU NAS LINUX

Posted on 27 dicembre 2010. Filed under: informatica | Tag:, , , , , , , , , , , , , , , , |

Tempo fa nella mia rete domestica ho inserito un NAS. Per chi non sapesse di cosa stiamo parlando, NAS è l’acronimo di Network Attached Storage, praticamente un disco di rete collegato non ad una singola postazione di lavoro come un disco esterno qualsiasi, ma ad un router tramite cavo  ethernet (oppure anche wi-fi). In quanto tale ogni PC collegato alla rete, in base ai permessi concessi dall’amministratore, può scrivere e leggere dal NAS, il cui contenuto quindi è condiviso da tutti. In più, parecchi NAS hanno capacità multimediali per cui sono in grado di inviare video ad una TV collegata in rete.

Bene, sul mio piccolo NAS c’è finito un po’ di tutto (foto, mp3, file di word, eccetera). Volendo fare pulizia, ho inavvertitamente (oppure incautamente, chi si ricorda) cancellato una intera cartella contenente una gran quantità di documenti, soprattutto fotografie, della mia figlia più grande, di cui non esisteva copia. Da qui la necessità di rimediare almeno in parte all’errore.

Il protagonista è questo qua: un NAS Philips da 500 GB. Per sua natura, poiché opera senza PC ma vive attaccato alla rete, un NAS è dotato di un proprio sistema operativo. Non è quindi un semplice disco esterno.

Per prima cosa ho spento subito (insomma, quasi subito) il NAS perché quando si vogliono recuperare dati cancellati erroneamente, anche a seguito di una formattazione veloce, da un disco rigido, bisogna evitare che i dati stessi vengano sovrascritti oppure irrimediabilmente corrotti da attività di vario tipo quale, per esempio, un processo di deframmentazione. Infatti i file cancellati sono ancora fisicamente al loro posto, mentre alla unità che gestisce il disco viene riferito che lo spazio da loro occupato è libero. Insomma, è come se ad un libro certe pagine venissero cancellate dall’indice: le pagine però resterebbero al loro posto e potrebbero essere cercate manualmente sfogliando il libro.

Questo è esattamente (insomma, più o meno) ciò che fanno i vari software specializzati nel recupero dei file: scandagliano il disco settore per settore e tentano di ricostruire i file, spesso con successo. Ma qui l’operazione doveva essere fatta su un NAS e nessuno di questi software, almeno nessuno di quelli da me provati in ambiente Windows, è stato in grado di “vedere” il disco di rete. Una breve ricerca su Google ed ho trovato alcune indicazioni. La prima: per operare su un NAS, bisogna armarsi di cacciavite, estrarre il disco rigido presente al suo interno, collegarlo fisicamente ad un PC come disco esterno, lanciare i software per tentare il recupero dei file.

Smontare il NAS senza distruggerlo è stato tutto sommato abbastanza facile, anche per me che con un cacciavite in mano sono un pericolo pubblico. La custodia esterna la ho potuta sfilare svitando due sole viti; poi, operando con calma e sangue freddo, ho portato alla luce il disco rigido collegato alla elettronica di gestione. Ho dovuto svitare quattro viti che lo tenevano ancorato al telaio ed altre due che tenevano fermi due fili elettrici e che avevano l’aria di una sorta di “messa a terra” (non saprei altrimenti come dire). Dopodiché è stato sufficiente staccare il cavetto SATA ed il connettore dell’alimentazione elettrica, del tutto identici a quelli di qualsiasi PC, per avere in mano l’Hard Disk (un Hitachi) in mano, libero da ogni legame con la sua collocazione originaria originaria.

Ho quindi aperto il case del mio PC, che ha un sistema raid per cui non è possibile scollegare uno dei due dischi per poter collegare quello prelevato dal NAS. Così ho scollegato invece il lettore ottico (DVD) che nel mio sistema è sempre SATA, ed al suo posto ho messo l’hard disk del NAS.

Avviato Windows 7, come sospettavo il sistema operativo non vede il disco. Ero convinto, infatti, che fosse formattato in Ext3, tipico di Linux. Infatti è così: lancio il programma Disk Director di Acronis, che è in grado di gestire le partizioni formattate un po’ in tutti i modi, e ne ho la conferma. Insomma, il NAS Philips (come molti altri) ha al proprio interno un sistema operativo derivato da Linux. Grazie a Google, apprendo numerose altre cose.

Recuperare dati da un NAS formattato con Ext3 è particolarmente difficile, secondo molti. Infatti, questo sistema prevedrebbe alcune routine di auto-deframmentazione che corromperebbero i dati rendendoli irrecuperabili. La prima cosa da fare, comunque, è accedere al disco da un sistema Linux e cercare un programma in grado di tentare il recupero. Detto fatto, riavvio il mio PC scegliendo Ubuntu come sistema operativo. Sotto Linux riesco ad accedere facilmente al disco ed a vedere i file (naturalmente non quelli cancellati); purtroppo ho la conferma che non esiste alcuna specie di cestino dove andare a riprendere i file cancellati, ma questo lo sapevo già (nell’uso come NAS, non ho mai visto alcun “cestino”). A questo punto è sufficiente cercare un programma analogo a quelli esistenti per Windows. Ancora una volta San Google mi viene in aiuto: ne trovo alcuni, ma alla fine la mia scelta cade su un programma che si chiama Photorec e che viene fornito insieme ad un altro, Testdisk. Lo strumento Gestione Software di Ubuntu non me li fa scaricare perché, avvisa, la provenienza non è sicura… allora procedo ad un download manuale. Per fortuna i programmi in questione non devono neanche essere installati, funzionano così come sono. Come spesso accade in ambito Linux, le interfacce sono spartane o persino assenti, però l’efficacia c’è. Dei due software, quello che fa al caso mio è Photorec. Bisogna aprire una finestra di terminale e lanciarlo da riga di comando: sudo ./photorec (dopo essersi spostati nella sua directory). Così facendo, i file recuperati verranno salvati nella stessa directory che contiene il programma.

Tutto funziona a riga di comando, ma è abbastanza facile da usare. Gli indico il disco e la partizione da usare, il file system, e poi vedo che succede.

Il programma scansiona tutto il disco in due passaggi, trova parecchia roba inutile (un sacco di file .txt che secondo me non esistono, infatti molti non si aprono) e così alla fine faccio un secondo tentativo spuntando, come opzione, non tutti i tipi di file come in precedenza, ma solo quelli che possono interessarmi. Io, per esempio, ho indicato solo i file di immagini (jpg, bmp, gif, tiff, png) oltre a quelli formato doc. Adesso le cose si fanno interessanti: vengono subito trovate una caterva di foto. Alla fine, dopo alcune ore ed i due passaggi, il software ha recuperato oltre 16.000 – diconsi sedicimila! – immagini, molte inutili (copertine di dischi, “pezzi” di siti, ecc.) ma altre di indubbio interesse, tra cui quelle di mia figlia che stavo cercando. Non sono in grado di dire di averle recuperate tutte, perché le 16.000 e passa fotografie andranno guardate una per una, però posso dire che la complessa “operazione salvataggio” ha avuto un successo insperato!

Alla fine rimonto il disco nel suo case e riattacco il NAS: funziona perfettamente!

Morale della favola: anche se è un’operazione abbastanza difficile da fare, recuperare dati cancellati per sbaglio da un NAS non è poi impossibile, basta avere un po’ di tempo a disposizione e smanettare un po’ sia col cacciavite che con il software.

Un’ultima nota: i file salvati da Photorec nella propria cartella sono suddivisi in directory numeriche (nel mio caso da 1 a 71) e risultano essere di proprietà di root, per cui non possono essere spostati né cancellati se non ricorrendo a noiose (almeno per me) operazioni a riga di comando per cambiarne il proprietario. Alla fine ho optato di uscire dal sistema ed accedervi di nuovo come root (sotto windows, diremmo come amministratore). In molte distribuzioni Linux attuali l’utenza root è disabilitata di default. In Ubuntu 10.10, quello che ho usato io, è stato necessario inserire da riga di comando una password per root (sudo passwd root, quindi seguire le istruzioni che compaiono). Successivamente, al login, digitare root come utente e poi la password precedentemente scelta. In caso di problemi, occorre smanettare tramite menù Amministrazione –> Schermata di accesso se c’è qualche altra voce da configurare.

Photorec è un programma multipiattaforma: oltre alla versione Linux, esiste anche una versione per Windows e persino una per Mac.

Leggi l'articolo intero | Make a Comment ( None so far )

LINUX SU DISCO E-SATA ESTERNO E WINDOWS 7 SU SISTEMA FAKE RAID

Posted on 7 novembre 2010. Filed under: informatica | Tag:, , , , , , , , |

Che titolone! Niente di così complicato e così approfondito. Voglio solo raccontare come ho installato Linux (nella fattispecie, Ubuntu) sul mio sistema dotato di fake raid con Windows 7, utilizzando un disco esterno. Niente di straordinario, ripeto, ma penso che questo articolo possa risultare utile a chi, come me, ha cercato notizie sul web senza particolare successo. Oddio, se ne trovano, ma sono piuttosto frammentate, dispersive, poco esaustive. Io non pretendo certo di risolvere ogni problema (non ne sarei in grado), ma solo di illustrare la mia soluzione.

Innanzitutto, il pc su cui ho “lavorato” (si far per dire, per me è un divertimento) è un performante sistema dotato di un sistema dischi raid tipo 0 (striping). In questo modo i due dischi da 1 TB l’uno vengono visti come un unico disco da 2TB; le operazioni di scrittura e lettura sono molto veloci perché i dati sono suddivisi alla pari tra i due dischi fisici, quindi per esempio un file viene scritto e/o letto in parallelo metà su/da un disco e metà dall’altro, dimezzando il tempo necessario (ho semplificato molto, ma la sostanza è questa). A fronte di cotanta velocità, abbiamo però un sistema intrinsecamente più fragile: basta un guasto ad uno dei due dischi per perdere tutto il contenuto. Ecco perché un sistema raid 0 va bene per chi vuole privilegiare la velocità e la capienza, mentre non è adatto a chi preferisce salvaguardare l’integrità dei dati.

I modi per implementare questo meccanismo su un pc sono due, uno hardware ed uno software, sfruttando alcune caratteristiche dei controller del disco presenti sulla scheda madre. Questo secondo sistema viene denominato fake raid e per poter funzionare necessita di appositi driver che vengono caricati all’avvio prima del sistema operativo: ed è logico, perché se il boot del sistema operativo non vedesse i due dischi come una unica unità, vedrebbe due dischi singoli illeggibili, e Windows non potrebbe andare in esecuzione.

Pur piuttosto soddisfatto della stabilità e delle prestazioni di Windows 7 a 64 bit, che rimane il mio ambiente di lavoro principale, mi è venuta subito la voglia di vedere all’opera anche una qualche distribuzione Linux, magari anche più di una (perché no?). Infatti, pur non essendo un fan sfegatato del pinguino, averlo installato mi piace, ed in passato sul altri pc sono arrivato ad avere sino a 6-7 distribuzioni contemporaneamente.

La prima volta che mi sono cimentato nell’impresa su questo pc, ho fatto un boot con il CD live di Ubuntu (versione 10.04) giusto per verificare che tutto funzionasse correttamente. Mi sono subito accorto che Linux non vedeva i dischi di sistema; tentando l’installazione, al momento di partizionare il disco il programma gparted mi mostrava i due dischi come entità separate. Se avessi proceduto nella installazione avrei distrutto la partizione Windows in fake raid con perdita, ritengo irrimediabile, di tutto il contenuto. Orrore! Tempo dopo ho rifatto la prova con la versione 10.10 ed ho notato che l’installazione live vedeva senza problemi i dischi in raid… Speranzoso ho fatto partire la procedura di installazione ma, al momento di partizionare il disco, ancora una volta gparted vedeva i due dischi fisicamente distinti!

Mi sono messo alla ricerca di una soluzione sui forum internettiani per capire che Linux aveva i suoi driver per far funzionare un sistema fake raid come il mio; ma i dubbi operativi non sono riusciti a togliermeli, anche perché io volevo sì Linux ma a fianco di Windows. Inoltre, sembra che grub (il loader di Linux) abbia problemi a riconoscere la partizione di Windows, dopo istallato Linux (sempre per via del fake raid), e mi sono trovato a leggere un sacco di suggerimenti per come salvare capra e cavoli, ma anche i post di un sacco di gente che aveva incontrato problemi quasi insormontabili. Insomma, su un sistema “pulito” mi sarei anche cimentato, ma la mia priorità era di non perdere l’installazione Windows con tutti i documenti salvati dentro. Avrei potuto fare un backup di tutto, e ce l’ho, ma anche il tempo scarseggia ed ho pensato quale potesse essere una soluzione alternativa.

Una soluzione sarebbe potuta essere quella di aggiungere un terzo disco interno, ma mi sembra che nel case lo spazio necessario non ci sia. Mi sono allora ricordato che il mio PC ha una porta e-sata esterna. Ad una porta di questo tipo si può connettere un hard disk esterno, dotato ovviamente di interfaccia compatibile, che verrà visto in tutto e per tutto come un disco di sistema ed avrà più o meno le stesse prestazioni di quelli interni (raid a parte): infatti il collegamento è SATA, proprio come i dischi interni, e la E di E-SATA sta proprio per External. L’unica differenza è che il disco esterno non prende l’alimentazione dal PC poiché è alimentato a parte come molti dischi USB.

Ho pensato quindi di aggiungere un disco esterno di questo tipo, per installarci Linux. Diciamo subito che rispetto a quelli USB, i dischi E-SATA esterni sono molto meno numerosi. Alla fine la mia scelta è caduta sul modello Iomega Professional Hard Drive da 1 TB. Mini recensione: buona costruzione. La superficie è metallica, satinata, fredda al tatto. Utilissima, come vedremo, è la presenza di un interruttore posteriore. Il disco è silenzioso, si ode solo un rumore ovattato leggermente metallico durante le operazioni di scrittura e lettura. In dotazione, oltre all’alimentatore, ci sono il cavo USB e il cavo eSATA. Attenzione: come è scritto chiaramente nelle istruzioni, che di solito per prodotti così semplici non legge nessuno, l’interfaccia eSATA non è plug&play: non si può quindi collegare o scollegare il disco rigido a caldo, ma va fatto sempre a PC spento, e questo vale non solo per il collegamento fisico, ma credo sia una buona norma da seguire anche per l’accensione tramite interruttore. La cosa è logica se pensiamo alle caratteristiche dell’interfaccia eSATA e se riflettiamo sul fatto che il disco esterno avrà in realtà lo stesso funzionamento di quelli interni. Per cui, se si vuole usare il disco come unità di backup, oppure per spostarlo da un pc all’altro, è meglio optare per il collegamento USB; se invece sul disco si vuole installare un sistema operativo, come ho fatto io, allora è meglio l’interfaccia eSATA che garantisce la velocità necessaria. In ogni caso l’Iomega Professional Hard Drive ha entrambe le interfacce, che però non possono essere usate contemporaneamente (ed anche questo mi sembra logico).

Una volta collegato il disco e verificato che tutto funzioni (basta andare su “Computer” e controllare se Windows ha aggiunto un’altra unità di storage) mi sono apprestato mentalmente ad installare Linux. La scelta è caduta su Ubuntu perché un po’ più amichevole di altre distribuzioni, che comunque avrei anche potuto scegliere e che forse installerò in futuro. La mia intenzione era di installare grub sul disco esterno senza intaccare minimamente il sistema fake raid. Ho cercato (inutilmente) rassicurazioni sul fatto che grub, installato su un’unità diversa, non installi qualche file anche sul disco di sitema, ma ho trovato solo informazioni confuse e per certi versi contraddittorie. Io credo che grub non tocchi il boot di sitema se installato su un altro disco o su un’altra partizione, ma nel dubbio ho aperto il case e scollegato i due dischi rigidi! Ho quindi avviato il pc con solo il disco esterno eSATA ed il CD di Ubuntu nel lettore.

L’installazione non ha avuto nessun problema così come non ha avuto nessun problema il boot dal disco esterno. Ho quindi ricollegato i due dischi raid (naturalmente a pc spento). Riavviato il tutto, ho verificato che anche Windows parte regolarmente. All’accensione del pc, mi basta premere F12 per scegliere di fare il boot dal disco esterno, e far partire Ubuntu.

Unici lati negativi (per me non importanti): il tempo di boot di Windows mi sembra leggermente più lungo; i due sistemi sono completamente separati, nel senso che Ubuntu (sono abbastanza sorpreso di questo) non vede la partizione Windows, mentre Windows non vede il disco esterno con Linux (e questo è normale perché ho utilizzato il file system di Linux e non il Fat32).

Ne consegue che se voglio lavorare con Windows, posso lasciare il disco esterno spento, ed in ciò consiste l’utilità dell’interruttore di cui parlavo prima.

Probabilmente (ma devo ancora provare), cambiando la priorità di boot dal bios, si può ottenere che se il disco esterno è acceso parta Linux, altrimenti parta Windows.

Infine, poiché ho ben 1 TB di spazio sul disco eSATA, seguendo la stessa procedura (ovvero disconnettendo temporaneamente i dischi interni) sarà un gioco da ragazzi affiancare ad Ubuntu altre distribuzioni lasciando a grub l’onere di tenere traccia di tutte le installazioni successive.

Un’ultima annotazione: al primo avvio, Ubuntu mi ha chiesto se volevo installare i driver proprietari nVidia (“sì” opzione consigliata). Da non credere come sia cambiato  in meglio, dopo, l’aspetto del desktop, a riprova di come sia importante la piacevolezza visiva di un sistema operativo.

Leggi l'articolo intero | Make a Comment ( None so far )

SISTEMI INOPERATIVI

Posted on 27 ottobre 2010. Filed under: informatica | Tag:, , , , , , , , , |

maverick2E’ solo una battuta, un gioco di parole. Che valenza può aver un sistema inoperativo? In ambito informatico il sistema è operativo per eccellenza: gestisce un ambiente per i programmi, per gli input dell’utente, per la ricerca e la organizzazione dei file, quando è grafico (ormai la norma) gestisce le onnipresenti finestre, il drag & drop, eccetera eccetera… Un sistema inoperativo è un controsenso per eccellenza, una inutility (non utilità) all’ennesima potenza, un aborto, un non-vivo non-morto come i vampiri e gli zombie.

Bene, questa cazzatina mi serve per introdurre la notizia, ampiamente presente sul web, che Ubuntu (la nota distribuzione Linux) nelle future versioni abbandonerà Gnome per utilizzare, al suo posto, Unity. Di che sto parlando? Linux ha la possibilità di cambiare a piacimento il gestore grafico del sistema e quindi potremo avere un Linux con Gnome, un altro con KDE, eccetera (solo per citare i due principali). Ma allora, mi si dirà, è solo un fatto grafico, un aspetto, una roba del tipo l’abito non fa il monaco, e allora chi se ne fotte? Non è proprio così semplice. Premesso, per fare contenti i più pignoli e facinorosi, che Unity deriva da Gnome, e che il mio preferito sarebbe KDE (forse perché ricorda Windows), tenterò di spiegare perché la scelta di Ubuntu è importante e cosa si cela dietro questo cambiamento.

Ok, premessa numero due. Io non sono un guru di Linux. Uso principalmente Windows, un po’ perché mi piace ed un altro po’ perché mi ci trovo bene. Windows 7 poi è una vera bomba e ci girano tutti i programmi che mi servono. Ma non ho il paraocchi e sono curioso: ho installato varie volte quasi tutte le distribuzioni Linux possibili immaginabili (Red Hat… chi se la ricorda? Ora si chiama Fedora, poi Mandrake che ora è Mandriva, naturalmente Ubuntu in tutte le sue varianti, Suse, Linux Mint, Debian, eccetera eccetera…). Attualmente in un vecchio portatile ho installato per sfizio Ubuntu, Kubuntu e Xubuntu. Insomma, non sono un esperto Linux, ma lo uso, lo installo, e un po’ lo conosco, anche se non intimamente.

Di Windows ammiro la coerenza dell’interfaccia, che non può dare Linux. Apprezzo la compatibilità che deriva dalla enorme diffusione, e viceversa. Ma (di nuovo) non ho il paraocchi e sono consapevole che c’è un intero mondo oltre quella finestra.

Kubuntu-10.10-desktopAllora, voglio raccontare le mie perplessità su Linux. La precedente versione di Ubuntu, la 10.04 se non vado errato, sul mio portatile non si installa. Sembra andare tutto bene ma alla fine il pc si pianta, lo schermo rimane nero, nessun comando è attivo. Poi scopro, leggendo sui vari forum, che forse alcune macchine con scheda grafica integrata potrebbero aver bisogno di inserire un parametro all’avvio, altrimenti va tutto a puttane. Ma porcaccia la miseria, penso, chi ha creato la routine di installazione, non poteva prevedere questa situazione del cazzo? E se uno (come in effetti tanti) avesse un solo pc, da chi si fa suggerire la soluzione, dalla buonanima di Maria Teresa di Calcutta, magari in sogno? E’ come se andate in garage a prendere la macchina e, se non parte, è colpa vostra perché non avete recitato a voce alta l’Eterno Riposo. Insomma, inserito il parametro giusto il sistema si avvia, poi bisogna modificare a mano (così suggeriscono gli esperti) un file inserendo in modo permanente il parametro mancante. Peccato che il file in questione non c’è, non esiste, anche se ci vuole poco per capire che in realtà il file da modificare è un altro. Per modificarlo bisogna dare il comando da superutente, altrimenti è immodificabile. Bisogna quindi lanciare l’editor di testo (ogni distribuzione ne ha uno diverso) tramite l’editor dei comandi (ogni distribuzione ne ha uno diverso) loggandosi come superutente (ogni distribuzione lo fa in modo diverso, su, sudo, e compagnia bella). Fatto. Finalmente tutto funziona, o quasi. Infatti voglio inserire un indirizzo di rete fisso al pc, ed è una operazione che durerebbe si e no venti secondi… ci metto poco a scoprire come si fa… peccato che quando vado a mettere l’indirizzo del router, le altre caselle (indirizzo del pc, maschera di rete e bla bla) si cancellano. Sì, avete capito bene, si annullano e non c’è verso, ma chi cazzo ha progettato ‘sta benedetta cosa? Alla fine, dopo innumerevoli tentativi e dopo aver scoperto sui forum che latri utenti hanno avuto lo stesso problema, finalmente riesco a farcela: inserisco prima l’ultimo dato poi tutti gli altri, spingo save all’inizio e non alla fine, insomma faccio qualcosa di autenticamente non intuitivo e finalmente, dopo un’oretta buona, ho personalizzato la connessione di rete. Con Windows avrei impiegato si e no dieci secondi, sul mio iPhone anche meno.

Non voglio bastonare Linux: è fantastico, hai tutto gratis, quando lo installi ti ritrovi non solo il sistema operativo ma anche tutto quello che può servirti. Peccato che installare altri programmi non è così agevole, ogni distribuzione lo fa in modo diverso; le ultime versioni però hanno un sistema automatico che rende veramente tutto molto semplice, sempre che l’installazione funzioni. Più volte, infatti, mi è capitato di installare programmi che poi non partono.

ubuntu-unityQuanto sopra serve per tornare a bomba sull’argomento topico: Ubuntu abbandona Gnome e passa ad Unity. Sembra infatti che siano sorte insanabili divergenze su come debba essere l’ambiente desktop del futuro tra la community di Gnome e Canonical, la società che produce Ubuntu. Canonical, ci vuole poco a capirlo, vuole rendere le cose più semplici all’utente e per farlo non c’è altra scelta se non rendere Linux più somigliante a Windows oppure a Mac OS, se non nella grafica almeno nella filosofia: tutto deve funzionare senza intoppi, i pulsanti debbono stare là dove uno pensa di trovarli, se il drag & drop funziona in una finestra deve funzionare in tutte (su Linux non è sempre detto). Se per confermare le opzioni settate in una finestra debbo cliccare Ok, in tutte le finestre simili devo trovare OK e non Chiudi  oppure atre scritte ancora più fantasiose. Il problema secondo me è che Linux è ideato da appassionati di informatica che non tengono nel debito conto certe esigenze di interfaccia. Ecco perché Ubuntu abbandonerà Gnome  per passare ad una interfaccia (Unity) progettata in proprio e da migliorare nel tempo secondo le linee guida della società, che è famosa per aver creato una distribuzione Linux abbastanza user friendly (ma non perfetta, come ho detto) e che ha proprio la mission di diffondere una versione di Linux facile da usare, bella da vedere ed affidabile.

L’utente finale, sia pure utonto come i fan boy di Linux definiscono l’utilizzatore medio di Windows, ha tutto da guadagnare se il panorama dei sistemi operativi si arricchirà di un contendente reale e non solo teorico. La concorrenza fa bene… Avremmo così Windows a caro prezzo, Mac OS a prezzo carissimo e con in dotazione hardware sovrapprezzo nonostante i processori di penultima generazione, e Linux Ubuntu facile da usare e gratuito. Gratuito? Pensiamoci bene. Sì, il sistema operativo non lo pagheremo, ma Canonical vorrà venderci la musica ed altri servizi… La parola gratis ha la brutta tendenza ad estinguersi… Ci sarà persino l’icona del carrello sulla barra delle finestre!

Capisco perfettamente  i motivi per cui la distro Linux più famosa e diffusa abbia pianificato questo cambiamento epocale,  e capisco perfettamente perché alcuni affezionati linari disprezzino Ubuntu definendola la peggiore distribuzione Linux. E’ tutta questione di attese, aspettative, obiettivi e tendenze.

Ma se per caso Ubuntu con Unity dovesse avere successo, e se avrà successo il futuro sistema operativo di Google, e se Mac dovesse aumentare la propria quota di mercato a discapito di Windows (come in parte sta accadendo), allora ci troveremmo di fronte ad una concorrenza di sistemi operativi per desktop come non avremmo mai sperato. L’alternativa è stare arroccati sulle vecchie posizioni per accontentare lo zoccolo duro (per quanto sparuto) degli affezionati, oppure attaccare la concorrenza proprio sugli aspetti in cui è migliore. Windows lo sta facendo sul fronte della sicurezza e stabilità, Linux lo deve fare sul fronte della piacevolezza e facilità d’uso.

Guardiamo per esempio cosa sta succedendo nel settore dei sistemi operativi per smartphone, dove non c’è un dominatore del mercato e numerosi contendenti contribuiscono a rendere sempre migliori i prodotti e le loro funzionalità.

Leggi l'articolo intero | Make a Comment ( None so far )

I MIEI SOFTWARE ESSENZIALI PREFERITI

Posted on 7 marzo 2010. Filed under: informatica | Tag:, , , , , , , , , , , |

Io non sono un informatico di professione, non sono un hacker: sono semplicemente un appassionato di informatica sin dai tempi del mitico Commodore 64. Al massimo, posso essere definito uno smanettone esperto. Nella mia vita mi occupo di tutt’altro, per cui questo articolo non vuole essere la bibbia del software, ma più semplicemente un resoconto delle mie esperienze e gusti in materia. Non credo ce ne sia bisogno, ma preciso che nessuno mi paga per suggerire un software al posto di un altro…

Sistema operativo: attualmente sul mio sistema è installato Windows 7 a 64 bit. Un po’ di conoscenza ce l’ho anche del mondo Linux; sul mio precedente PC ero arrivato ad avere sino 4-5 diverse distribuzioni Linux installate contemporaneamente: Mandriva, Fedora, Suse, ed altre per così dire “minori”. Non la famosissima Ubuntu perché, per qualche strano motivo, avevo dei disturbi grafici sul monitor che si verficiavano solo con Ubuntu e derivati (Kubuntu, per esempio).  Ecco il mio parere su Linux: lasciando da parte i fanatismi vari che si trovano in giro, e mettendo anche da parte l’odio che alcuni nutrono per Microsoft, attualmente Linux è un valido sistema se non avete esigenze software particolari (alcuni programmi non esistono nel mondo Linux o non sono all’altezza di quelli commerciali) e se usate il PC principalmente per internet, la posta elettronica, creare e leggere documenti. In questi casi, con Linux vi troverete alla grande e – cosa interessante – non spenderete nemmeno una lira. Sotto il profilo della installazione Linux crea qualche problema in più, ma solo perché è diverso l’approccio di fondo e chi viene da Windows può trovarsi un attimo spaesato. Infatti al centro di Linux c’è una directory “radice” e bisogna indicare dove installarla. Le “risorse” del computer vanno montate (a volte accade automaticamente) in altre directory, o per essere più facili diciamo che vanno “montate” in cartelle. Aprendo la cartella, si apre in realtà – per esempio – il disco rigido. Alcune distribuzioni, oltre a dove installare la “radice”, chiedono dove installare la partizione di swap: perché Linux ha un file di swap come Windows ma lo vuole in una piccola partizione a parte. Sono a ben vedere piccole difficoltà, ma all’inizio possono sembrare insormontabili. Una volta installato e scelto un desktop grafico tra quelli disponibili, Linux sarà facile da usare proprio come Windows… insomma, un po’ meno perché l’ambiente nel complesso è meno coerente, ma le differenze saranno poche. I due desktop grafici più noti sono Gnome e KDE. Io preferisco il secondo. In cambio, potrete praticamente scordarvi ogni problema legato ai virus, perché Linux è poco diffuso e chi scrive software maligno lo fa pensando alla maggioranza degli utenti, che usa sistemi Microsoft. Nel seguito di questo articolo mi riferirò a software per Windows; confesso subito che non ho quasi mai usato sistemi Mac per cui seguo la buona regola di non parlare di ciò che non si conosce.
Passando a dire qualcosa di Windows 7, a mio modo di vedere questa volta Microsoft ha fatto centro. Se Vista aveva scontentato molti, che avevano preferito rimanere con Windows XP, “Seven” ha le doti per farsi perdonare. Praticamente è un Vista rifatto, ma rifatto bene. E’ più veloce di Vista, più bello graficamente, più leggero, più facile da usare. Io lo preferisco con i bordi delle finestre totalmente trasparenti, bianchi: sia la barra multifunzione che le finestre vengono influenzate dai colori dell’immagine di sfondo, che può cambiare automaticamente ad intervalli prefissati: è bello da vedere. Se la macchina che avete supporta la versione a 64 bit, vi suggerisco di passare senza dubbio a questa, che mi sembra persino più stabile della 32 bit. Unica cosa, fatevi un giro sul web per verificare che il vostro hardware (stampanti, scanner, webcam, eccetera) abbia i driver a 64 bit, che sono indispensabili anche per vedere tutta la ram se questa è superiore a 3,7 giga.

Una delle mie prime preoccupazioni è quella di deframmentare regolarmente il disco rigido. Lo si può fare usando il tool integrato nel sistema operativo, programmando la deframmentazione a scadenze precise, oppure ci si può rivolgere a software esterni, alcuni anche gratuiti. La mia preferenza, però, va a due software che deframmentano in tempo reale: sarò pigro, ma le cose che funzionano da sole ed in automatico (se lo fanno bene) sono di gran lunga le mie preferite. I due software sono Diskeeper e PerfectDisk. Li ho provati tutti e due ed entrambi sono ottimi. Io attualmente preferisco PerfectDisk: lo installate, lo settate in modo da operare in modo totalmente automatico, selezionate o deselezionate le opzioni che preferite, e poi potete dimenticarlo: lui opererà in silenzio, in background, senza infastidirvi e manterrà il disco rigido in ottima forma. Ha anche il vantaggio di costare poco.

La seconda preoccupazione è quella di una protezione antivirus. Gira e rigira io ho provato Norton, Kaspersky, Avast, Avira… Sono stato utente del Norton per tanti anni, con soddisfazione a dispetto di chi scrive che il vero virus è il Norton…, finché lo ho abbandonato perché troppo invasivo. Il mio convincimento è che gli antivirus gratuiti siano validi quanto quelli a pagamento per cui non convenga spendere soldi per questi ultimi, o perlomeno che le piccolissime differenze nel rilevamento dei virus e del malware non valgano i soldi spesi. Per cui suggerisco l’ottimo Avira, che però a me ha dato un problema non grave da comprometterne l’efficacia, ma fastidioso: su un PC multiutente non compariva l’icona nella system tray degli utenti senza privilegio di amministratore. Non un grave problema perché il modulo di protezione era regolarmente in funzione, però le prime volte mi veniva spontaneo chiedermi se l’antivirus fosse stato regolarmente attivo. Buono è anche Avast, che ho usato senza problemi e per il quale non ho da segnalare controindicazioni. Tra gli antivirus free una big entry è quella di Microsoft, con il suo Microsoft Security Essentials: poco pesante, poco invasivo, e funziona bene. In genere questi programmi sono anche anti-spyware, per cui una volta installati si può disattivare Windows Defender per risparmiare risorse di sistema. In ogni caso ci sono ottimi software gratuiti specializzati per rimuovere spyware: tra tutti il migliore è SpyBot Search & Destroy, che consiglio di installare disattivando tutti le funzionalità di protezione in tempo reale, ma di usare ogni tanto per dare una ripassatina di sicurezza a tutto il sistema. Stesso discorso vale per Ad-Aware della Lavasoft, che esiste anche a pagamento, ma io consiglio la versione gratuita. Attualmente sui miei PC di casa (un desktop ed un portatile) ho l’antivirus gratuito della Microsoft, mentre su quello più potente che di solito uso io ho il G-Data, classificato come il migliore tra quelli esistenti. Un po’ pesantuccio perché dotato di due motori di scansione (uno dei quali è Avast) è consigliato solo su sistemi potenti. Non è gratuito, ma costa poco; quest’anno è stato regalato dalla rivista PC World con tanto di aggiornamenti per un anno intero, ed è questo il motivo principale per cui l’ho installato sul mio sistema.

Un’altra tipologia di programmi essenziali è quella per il backup dei file e del sistema. Fare una copia di sicurezza delle cose più importanti è di fondamentale importanza, poiché la nostra vita gira sempre più attorno ai dispositivi digitali di memorizzazione. Un buon programma per il backup automatico dei file è File Hamster, che esiste anche nella versione gratuita. Questo programma controlla in tempo reale una o più cartelle (selezionate da voi) edogni volta che un file viene cambiato, ne salva una copia da un’altra parte, per esempio un disco rigido esterno. Utile non solo per ripristinare un file andato perduto, ma anche per rintracciare una versione precedente di un file. Già, perché ogni volta che un file modificato viene salvato, File Hamster oltre a copiare la nuova versione ne mantiene anche la precedente! Per un periodo ho usato questo programma con soddisfazione. Windows ha in dotazione una funzionalità per il backup che però, confesso, io non uso. Un tempo facevo copie delle cose importanti su CD, poi su DVD, ultimamente su dischi rigidi esterni. Le fotografie, per esempio, le salvo su due dischi rigidi esterni che sono conservati in due differenti posti: spero così di non perderne il contenuto. Ma per stare ragionevolemnte sicuro, ho sottoscritto un servizio tramite internet: LiveDrive. Purtroppo è a pagamento, ma ha parecchie frecce al suo arco. Innanzitutto, almeno nella sua versione professional, lo spazio di archiviazione è illimitato. Inoltre funziona in due modi: può controllare in tempo reale alcune cartelle, da voi scelte, di cui fa la copia sul server remoto ogni qualvolta un file viene modificato, aggiunto o cancellato; oppure si può scegliere di volta in volta cosa mandare. Si può installare un software client sul proprio PC per interagire facilmente con il server remoto, oppure si può andare direttamente tramite interfaccia web previa introduzione della propria password. Dulcis in fundo, c’è persino un applicativo per l’iPhone tramite cui poter raggiungere i propri file anche in mobilità! Se si perde qualcosa, basta un clic per ripristinare ciò che è andato perso. Un’altra forma di backup importante è quella che consente di fare la copia di intere partizioni in modo da poter ripristinare, in caso di problemi, il sistema operativo completo di programmi installati e quant’altro. Il mio software preferito in questo caso è Acronis True Image.

Leggi l'articolo intero | Make a Comment ( 1 so far )

Liked it here?
Why not try sites on the blogroll...

%d blogger hanno fatto clic su Mi Piace per questo: