Da linux mint 18.1 : come vedere i files di altre macchine windows nella rete locale

E’ molto semplice:

aprire un terminale e digitare il comando:

nemo smb://ip_address_of_windows_machine

dove ip_address_of_windows_machine è l’indirizzo internet della macchina windows, che è nella rete locale.

Annunci

Collegarsi a una vpn da linux mint 18.1

Spesso ci si vuole collegare da linux mint 18.1 a una rete vpn. Purtroppo se si usa “Rete”, che è sul menu del cinnamon, non sempre funziona se si sceglie “vpn”. Per esempio ho sperimentato che se voglio collegarmi a rete vpn, gestita da fortinet, allora non funziona.

Io ho ovviato in questo modo:

sudo apt-get install automake

sudo apt-get install autoconf

sudo apt-get install libssl-dev

  • eseguire, sempre nel sudetto folder, i comandi

aclocal && autoconf && automake –add-missing

sudo   ./configure –prefix=/usr –sysconfdir=/etc

sudo make

sudo make install

  • eseguire il comando

sudo openfortivpn tuoindirizzoretevpn:tuaporta –username=tuousername

dove tuoindirizzoretevpn è l’idirizzo della rete vpn a cui ti vuoi collegare;

tuaporta è la porta del suddetto indirizzo (in genere è 443 ). Quando poi chiede la password, inserire la propria password per accedere alla rete vpn .

Se il suddetto comando non dovesse funzionare, in genere viene dato un avvertimento che bisogna aggiungere –trusted-cert  YYYY   dove YYYY è un codice abbastanza lungo che consiglia di inserire; in questo caso, al suddetto comando, aggiungere anche l’opzione

–trusted-cert   YYYY dove YYYY è il codice suddetto, abbastanza lungo, che consiglia di inserire.

Per qualsiasi problema in merito, scrivete dei commenti a questo articolo, cercherò di rispondere appena posso.

 

ESEMPIO COMANDI PER CAMBIO SCHEMA SOLR

server/scripts/cloud-scripts/zkcli.sh -cmd upconfig -zkhost localhost:9983 -confdir /home/florenna/conf -confname helloworld

 

server/scripts/cloud-scripts/zkcli.sh -cmd linkconfig -zkhost localhost:9983 -collection helloworld -confname helloworld

e poi da browser fare:
(NEL CASO DI MODIFICA DI SCHEMA (REOLAD) IL COMANDO E’:
http://localhost:8983/solr/admin/collections?action=RELOAD&name=helloworld

NEL CASO CREAZIONE DI SCHEMA, IL COMANDO E’ (AL POSTO DI nomecoll mettere il nome della propria collezione):
curl ‘http://127.0.0.1:8983/solr/admin/collections?

action=CREATE&name=nomecoll&numShards=3

&replicationFactor=2&maxShardsPerNode=2’

SQL HIVE ESEMPI

LOAD DATA LOCAL INPATH ‘/home/florenna/HIVE/apache-hive-2.3.1-bin/examples/files/kv2.txt’ OVERWRITE INTO TABLE pokes;

 

LOAD DATA LOCAL INPATH ‘/home/florenna/HIVE/apache-hive-2.3.1-bin/examples/files/kv2.txt’ OVERWRITE INTO TABLE invites PARTITION (ds=’2008-08-15′);

 

LOAD DATA LOCAL INPATH ‘/home/florenna/HIVE/apache-hive-2.3.1-bin/examples/files/kv2.txt’ OVERWRITE INTO TABLE invites PARTITION (ds=’2008-08-08′);

 

Erano state create 2 partizioni della tabella
con il comando:

CREATE TABLE invites (foo INT, bar STRING) PARTITIONED BY (ds STRING);

 

creates a table called invites with two columns and a partition column called ds. The partition column is a virtual column. It is not part of the data itself but is derived from the partition that a particular dataset is loaded into.

Dalla suddetta tabella vedere come are i cluster,
per esempio tutti i cluster , formati da riche
che hanno
il valore del campo foo uguale.

—-

SELECT foo,bar FROM invites cluster BY foo ;

—-

Guardare a questo esempio per avere quando 2 istances sono uguali per il cluster

https://stackoverflow.com/questions/27726186/sql-find-all-instances-where-two-columns-are-the-same

SELECT pv_users.gender, count (DISTINCT pv_users.userid)
FROM pv_users
GROUP BY pv_users.gender;

 

SELECT foo, count ( invites.foo)
FROM invites
GROUP BY foo;

Sopra clusterizza secondo la prima colonna foo.

 

—–

SELECT Orders.OrderID, Customers.CustomerName, Orders.OrderDate
FROM Orders
INNER JOIN Customers ON Orders.CustomerID=Customers.CustomerID;

—–

Map-side Aggregation for Group By

hive.map.aggr controls how we do aggregations. The default is false. If it is set to true, Hive will do the first-level aggregation directly in the map task.
This usually provides better efficiency, but may require more memory to run successfully.
set hive.map.aggr=true;
SELECT COUNT(*) FROM table2;
—–

Importante articolo sulle performance di hive
https://blog.matthewrathbone.com/2015/12/08/hive-vs-mysql.html

——
IMPORTANTE CON QUERY PER RAGGRUPPAMENTO

CREATE TABLE tabellafab (id INT, valore_ip STRING, commento STRING) row format delimited fields terminated by ‘,’;

LOAD DATA LOCAL INPATH ‘/home/florenna/PROVATESTO/prova1.csv’ OVERWRITE INTO TABLE tabellafab;

 

Esempio1:
SELECT Orders.OrderID, Customers.CustomerName, Orders.OrderDate
FROM Orders
INNER JOIN Customers ON Orders.CustomerID=Customers.CustomerID;

Esempio mio:

SELECT tabellafab.id, tabellafab.valore_ip
From tabellafab
INNER JOIN
(
select tabellafab.id, tabellafab.valore_ip
From tabellafab
) as p
on
tabellafab.valore_ip=p.valore_ip;

 

Esempio mio migliorato:

SELECT tabellafab.id as ID1, p.id as ID2, tabellafab.valore_ip
From tabellafab
INNER JOIN
(
select tabellafab.id, tabellafab.valore_ip
From tabellafab
) as p
on
tabellafab.valore_ip=p.valore_ip
where
( tabellafab.id <> p.id );

 

PROVADRAFT PER CONTROLLO DUPLICATI:
SELECT tabellafab.id as ID1, p.id as ID2, tabellafab.valore_ip
From tabellafab
INNER JOIN
(
select tabellafab.id, tabellafab.valore_ip
From tabellafab
) as p
on
tabellafab.valore_ip=p.valore_ip
where
( tabellafab.id <> p.id )and
( (tabellafab.id = 519) and ( p.id=1000) ) or
( (tabellafab.id = 1000) and ( p.id=519) );

 

ESEMPIO MIO ANCORA MIGLIORATO PER ELIMINARE I DUPLICATI:

SELECT tabellafab.id as ID1, p.id as ID2, tabellafab.valore_ip
From tabellafab
INNER JOIN
(
select tabellafab.id, tabellafab.valore_ip
From tabellafab
) as p
on
tabellafab.valore_ip=p.valore_ip
where
( tabellafab.id <> p.id )
and ( tabellafab.id < p.id );

 

 

Come avviare SOLR CLOUD

PER AVVIARE CLOUD SOLR (ESEMPIO)
Immaginiamo che abbiamo 3 nodi solr sulla nostra macchina localhost :
un nodo core che è sulla porta 8983
altri due nodi slave che sono sulla porta 8984 e 8985
l’address di zookeper è (in questo esempio)
in questo esempio l’home directory di solr è /home/tizio/solr-6.6.0/
FAR PARTIRE SOLR TRAMITE QUESTI 3 COMANDI:
Starting up Solr on port 8983 using command:
“/home/tizio/solr-6.6.0/bin/solr” start -cloud -p 8983 -s “/home/tizio/solr-6.6.0/example/cloud/node1/solr”

Starting up Solr on port 8984 using command:
“/home/tizio/solr-6.6.0/bin/solr” start -cloud -p 8984 -s “/home/tizio/solr-6.6.0/example/cloud/node2/solr” -z localhost:9983

Starting up Solr on port 8985 using command:
“/home/tizio/solr-6.6.0/bin/solr” start -cloud -p 8985 -s “/home/tizio/solr-6.6.0/example/cloud/node3/solr” -z localhost:9983

Avvertenza: se si vogliono anche le funzionalità di clustering, ai suddetti comandi aggiungere:
-Dsolr.clustering.enabled=true