Skip to content

Departamentos IT en peligro de extinción

Las tendencias de consumerización de las TI y el auto-servicio dará lugar a una reestructuración de los departamentos IT.

Los departamentos IT podrían dejar de existir en 5 años

Articulo extraído de muycomputerpro.com

Al menos, eso es lo que dicen en ComputerWorld, que las tendencias de consumerización de las TI y el auto-servicio dará lugar a una reestructuración de departamento IT, tal y como lo conocemos hoy en  día, dejando atrás un modelo híbrido compuesto por consultores e integradores de tecnología.

“El negocio en sí será el departamento de TI. El técnico será simplemente el facilitador”,  dijo Brandon Porco, jefe de tecnología de Northrop Grumman. Porco, junto a otros tecnólogos, respondió a las preguntas de la audiencia durante una reunión en la conferencia CITE de esta semana.

Entre las preocupaciones planteadas está si se está perdiendo el control a  medida de que la tecnología de consumo se convierte en parte integrante de la labor de todos los empleados, y que el centro de datos se quede atrás.

Otros dijeron que no están seguros de cómo hacer frente a una brecha generacional cada vez mayor entre los trabajadores jóvenes y veteranos, cada uno de los cuales se sienten cómodos con diferentes tecnologías.

“A los becarios que vienen para el verano se les pregunta si están familiarizados con Google Apps y dicen que sí”, dijo Nathan McBride, vicepresidente de TI en AMAG Farmacéuticos. “Luego tenemos otros empleados que trabajaron para otras empresas que necesitan outlook y tenemos que decirles que eso no lo usamos más”.

Además, McBride dijo que 75 compañías de Fortune 100 ya utilizan Google Apps, junto con la mayoría de las escuelas de la Ivy League, lo que significa que la próxima generación de trabajadores no serán usuarios de Microsoft Exchange en la oficina.

Joan Frigola • Hola Llorenç! Interesante artículo para iniciar el debate.

Sí que es verdad que los departamentos de TI están cambiando, ¿pero qué departamento no ha cambiado en estos últimos años? ¿Quién no ha visto departamentos de logística con miles de faxes? ¿O departamentos de RRHH o contabilidad con multitud de máquinas de escribir?

Esta gente y en su mayoría gente de edad avanzada, se han adaptado a los ordenadores, a trabajar en SAP, o gestionar nominas con Meta4 o HRAccess… Usando mensajería Lotus Notes y actualmente el potente Google Apps. Y esto en pocos años.

¿Que nos depara el futuro? pues muchas más mejoras, y ahí, nosotros los informáticos debemos estar al lado de nuestro cliente: usuarios de otros departamentos… y ampliando nuestra cobertura de servicio, es decir, abandonar viejas tecnologías y migrar a aquellas que nos den valores añadidos, y a su vez simplicidad de administración.

Google Apps debe administrarse, pero claro está que da mucho menos trabajo que un servidor Domino Server. Los negocios como las personas deben contratar productos de mercado que funcionen y simplifiquen su día a día, y este ejemplo expuesto es un buen ejemplo.

Al administrador Lotus se le cierra una puerta y se le abren miles; es cuestión de adaptarse. Tal y como comenta el artículo, el informático será el “facilitador”, el que ayuda, el que aporta un valor añadido a sus compañeros de otros departamentos. La empresa que no lo vea así creo que va a quedar un poco atrás, pues la informática se expande a segmentos ya no solo de entornos industriales, sino a entornos hasta hará poco impensables para un informático.

Estoy hablando, para poner un ejemplo, de la creación de redes de dispositivos de control de iluminación, de sistemas de climatización, de control de consumos de cualquier tipo de energía que la empresa utiliza…; como hemos hecho hasta ahora con los controles de producción, ahora será control de consumos energéticos, u optimización de cualquier recurso que le cuesta un dinero a la empresa.

Es ampliar nuestro abanico técnico, usar nuestros conocimientos o más bien decir “nuestra capacidad de gestionar el cambio tecnológico” para aplicarlos a segmentos en auge, y de aquí unos años habrá otros retos, y ahí los informáticos deberemos decir la nuestra.

Llorenç Farre • Hola Joan:
Interesante aportación la tuya que refuerza la idea principal que los D.P. de informática tienen que ser facilitadores del negocio, han de crear valor con la gestión de la tecnología alineandose con las diferentes áreas funcionales de las empresas. Ello implica que además de gestores tecnologicos también tenemos que liderar en ocasiones la gestión del cambio.

Hi, Cloud Services..

Hi, Cloud Services..

Interesante debate iniciado en el grupo IT Infrastructure Management (ITIM) Professionals

Hi, I’m new to this group. I’m a Director of IT Infrastructure for a healthcare company…a lot of my executive are hearing a lot about how cloud services can save companies a lot of money…What are your thoughts??

Ayaz Buriro • What you have heared is true. Since you are in a Healthcare company and if you are dealing with a hospitals then you can save money by implementing VDI ( Virtual Desktop Infrastructure). Doctors can carry their desktops with them . Means they can access their desktop while examining the patient using their Tablet or Phone. A lot more in terms of App-V also . App-V is application virtualization. These all benfits you can get froom cloud as well as by implementing your own private cloud in your data center.

Khalid Kamran • For healthcare, Cloud can prove very effective solution. As most of the staff is ‘sale guys’ it can hep them not only perform better and contribute greatly towards achieving sales targets, but significant savings on account of productivity applications.

Anish Achenkunju • Cloud based SaaS is very scalable for organizations spanning across multiple regions and can easily adapt to growing employee strength.
It is essentially outsourcing your Application Servers (in the case of SaaS) and hence risk. This way, organizations can focus on the core business. But with it , the down side is that most of these service providers charge you per seat per month.
Some service providers charge customer heavily for custom feature request down the line. Once the employees get trained and becoming productive with the interface, Service providers are it a better position to charge higher for their services. This puts customers in a difficult position, considering the time required to migrate , train and get employees productive on a different cloud app.

Hence its very important to having select the right service provider, because your business is out there hosted on the cloud; thus would need to make sure they comply to their SLA’s and security practices.

A cloud based SaaS such as Cloud Based Image Management service provider that may be applicable to the industry your associated with; would allow clinicians get rapid, convenient access to a patient’s complete image portfolio, plus the ability to access images and collaborate with specialists across provider enterprises—from hospitals, health systems to imaging centres and physician practices.
This would allow employees to access these informations from anywhere (using a thin client interface) without having to VPN to organization infrastructure which is usually the case with traditional app hosting. Hence improving access time, reducing IT infra mgmt cost.

Ryan Nguyen • Thank you all for your thoughts around this subject. I guess you just have to understand the balance between what you should and shouldn’t move to the cloud and where it makes sense in your operation.

Ayaz Buriro • Yes Ryan , it is matter of understanding according to the need of the business .

Chris Giouris • Also, the hidden costs are providing support to Fat clients and traditional methods of operation. By implementing thin clients with either full or hybrid cloud services will drastically reduce the amount of support required, as the SOE can be locked down tightly according to the business requirements and with the reduced number of Virtual Servers/Desktops ongoing maintenance is reduced also. My hesitations about third party cloud providers is the security of data, financial and management stability of the cloud service provider access to your “equipment” to make necessary changes.

Joan Frigola • My first Cloud based SaaS project was Google Apps Migration for Lotus Notes (GAMLN) : http://support.google.com/a/bin/answer.py?hl=en&answer=154630

Four years later all are benefits. More of 2000 users located in 25 differents sites in 4 continents are using Google Apps (mail, Gdocs, calendar, sites, hangout…)

A good link: Data centers move to cloud apps, weigh SaaS pros and cons
http://searchdatacenter.techtarget.com/news/2240185250/Data-centers-move-to-cloud-apps-weigh-SaaS-pros-and-cons

But, the question is: Our bussiness must to put important data in the cloud? Perhaps mail systems as SaaS in the cloud is a good solution, but how about another internal services: ERP, HR…?

Jose Kattumana • Although the cloud services are becoming more mature and secure, is it advisable to host ERP and other applications which may have sensitive or critical information for the organization on the cloud?

Anish Achenkunju • One would have to make sure their Service Provider complies to Security standards associated with the industry they operate in. In this context, HIPAA is what I would look for! Google returned http://www.cleardata.net/ which may apply here.

But yes, not sure if any organizations would like to put any financial , R&D or any such trade-secrets on an public cloud.

Arquitectura Xenapp

xenapp architecture

En esta entrada, añado una imagen muy simple pero muy gráfica de la arquitectura Xenapp, tomada del blog de Sachin

A continuación vamos a comentar algunas instrucciones que a menudo se deben utilizar.

qfarm /load > si vamos a Citrix eDocs tendremos toda la sintaxis del Query farm

Esta instrucción yo la utilizo para ver las cargas de los servidores. Si “server load” es igual a 10000 significa que tengo el servidor en mantenimiento. Hay empresas que no usan un “load evaluator” para mantenimiento de servidores. Yo os lo recomiendo, pues de esta forma podemos aislar un servidor Xenapp sin provocar problemas en el servicio. Cuando el servidor ya no tiene usuarios conectados podemos proceder al mantenimiento del servidor (parches, nuevas aplicaciones…)

Crear un nuevo “load evaluator” es muy simple; adjunto imagenes de Xenapp5 y 6.xload_evaluatorload_evaluator65

en el articulo CTX103128 podréis leer que esta praxis de usar un “load evaluator SCHEDULING” nos permite el acceso a los administradores al escritorio (pues no es necesario usar instrucciones como change logon /disable que nos bloqueaban el acceso)

DRP

Creo que toda empresa debe tener un DRP = Disaster Recovery Plan.

En la empresa en la que trabajo estamos ahora intentando minimizar los RPO y los RTO (http://es.wikipedia.org/wiki/Plan_de_recuperaci%C3%B3n_ante_desastres).

Como software usamos Backup Exec de Veritas. Algunas plantas aún estan con ArcServe pero en desuso. El Hardware son robots de copias LTO-3, LTO-4… La tecnología será la del momento de compra y el número total de cintas que soporta el robot dependerá del dimensionamiento futuro. Es importante tener en cuenta cuando compras los equipos de backup, no el almacenamiento actual sino el que tendrás dentro de 3-4 años (tiempo en que amortizas el material). Debes calcular la ventana de backup por los datos futuros, así no tendrás ni sorpresas ni problemas.

Muchas tecnologías actuales de infraestructuras de TI como VMWare, Xenapp… permiten obtener KPIs cercanos al 100% en disponibilidad de aplicaciones/servicios, tecnologias a tener en cuenta si quieres tener un buen DRP.

Base de datos como Oracle, DB2… disponen de su propio sistema de alta disponibilidad que dependerá de la versión y de tu infraestructura. En DB2 (Iseries AS400) usamos Quick-EDD/HA sistema de duplicación de objetos entre una VM y otra (el Iseries usa LPARs, y le llamo VMs porque son maquinas virtuales por similitud al concepto de VMWare). Con Oracle 11G tenemos un Oracle DataGuard para la alta disponibilidad.

La conexión a Internet también está securizada vía BGP con el ISP (Wimax como principal y backup ADSL). El Proxy Websense lo securiza el antiguo Bluecoat que tenia y aun está vivo, y por si las moscas un Squid de Linux (este tiene un Radius para autenticar, pues los websense vía LDAP lee el Active Directory y Bluecoat vía agente en los DCs también permite la autenticación.

A nivel de aplicaciones Lotus Notes, esta plataforma también permite el cluster. La replicación de documentos en Lotus es lo más simple y potente a la vez.

¿Que me queda? El firewall tengo un cluster Nokia Checkpoint Fw1 – IP350. A nivel MPLS también está redundado vía Operador. A nivel de CoreLan, pues a parte de un buen mantenimiento tener bocas de fibra y cobre disponibles dado el caso que alguna parte de tu Core caiga. A nivel de Wifi, tenemos 2 Cisco Wireless LAN Controller 5508. Al tener algunos APs de Cisco antiguos no hemos podido migrar los WLCs a la versión cluster, pero tenemos alta disponibilidad igualmente en versiones 6x, pero a nivel de administración es un poquitín más laborioso, pero bueno, tampoco añades APs cada día.

Los servicios que usan servidores radius permiten configurar 2 o más servidores radius, por lo que también tienes securizado las autenticaciones de VPNs de usuarios itinerantes (Cisco PIX, Cisco ASAs…), Los proxys, los WLCs…

A nivel de Active Directory, doy por entendido que todo el mundo tendrá un mínimo de 2 DCs por dominio. Yo para cada dominio tengo uno o varios en virtual y siempre uno físico (para sedes con más de 200 usuarios)

A nivel de seguridad (WSUS, Antivirus), cada fabrica tiene su servidor local de descarga de actualizaciones. En caso de caída de servidor local, servidores de Datacenters mas cercanos, vía Script o GPOs según el caso, se desvía la actualización (alerta con los anchos de banda y latencias entre dichas sedes, a nivel de antivirus no tendréis problemas pero os recomiendo que reviséis en el WSUS central como estaba la sede caída pues si había mucho ordenador pendiente de descarga de parches, puede que os sature la red WAN).

Caída de servidor de impresión de una sede: imprimir en la central en PDF y enviártelo por mail e imprimir en la impresora que tengas configurada localmente.

Mensajería: ahora estamos con Google Apps. Antes con Domino Server teníamos los clusters comentados en el apartado aplicaciones Notes, por lo que había también una redundancia.

La infraestructura VMWare debe securizarse. A modo de ejemplo os doy este linkhttps://jfrigolait.wordpress.com/2013/05/13/6/ donde vereis un esquema tipico de 2 switches, 2 cabinas y 3 hosts. Aquí la tecnologia usada es la barata Iscsi, pero podria ser Fiber channel tranquilamente, pero aun siendo economica da unos resultados excelentes.

Tambien podriamos hablar del emplazamiento del datacenter. Recomendable para grandes organizaciones 2 datacenters y ubicados en sedes distintas; como es el caso de nuestro datacenter central del Grupo en Francia.

En España solo dispongo de un datacenter, no está clonado, pero en este caso, el tema de un DRP se hace aún más riguroso, con revisiones más constantes del SAI y grupo electrogeno. Revisión de las cargas de las distintas lineas de corriente. Doble fuente de alimentación el los equipos, y cada de una de ellas a una linea (diferencial) distinta, servicios importantes de red como DC, DNS… ubicados en distintos racks.

Sistema antiincendios en el CPD, con sondas de temperatura (CPD y sala SAI)…

No falta decir del uso de RAIDs en los discos, dobles tarjetas de red para teamings, tarjetas IDRAC Enterprise para el control remoto de los Server desde la BIOS misma (muy importante si tenéis sedes distantes sin soporte local informático o con tiempos de respuesta altos)

Esta información la encontrareis en el grupo TechNet Spain de LinkedIn

Jose Antonio Quilez Lahoz • El Plan de contingencia es imprescindible en cualquier empresa que quiera tener un mínimo de seguridad, y Joan lo ha expresado perfectamente. Pero nos encontramos con que muchas empresas implementan todo ese tipo de medidas para securizar su inversión, pero les falta documentar correctamente los procedimientos a aplicar cuando ocurre un incidente, sea de pequeña entidad o un completo desastre. No vale con confiar en que si tenemos clusters se producirá correctamente el failover, sino que alguien tiene que saber que ha de comprobar que efectivamente se ha realizado, así como el rollback posterior. Lo mismo si replicamos VMs con Hyper-V 3 al CPD de respaldo, tiene que haber alguien que levante manualmente las máquinas en éste. Y así con todo.
Y para que eso funcione bien, necesitamos dos cosas: por un lado, designar una estructura de personal al que se le asignen responsabilidades y tareas en este sentido, y por otro lado, hay que escribirlo. Es imprescindible escribir un documento en el que se detallen todas las operaciones a realizar ante cualquier tipo de incidencia, y ese documento hay que difundirlo de tal forma que todos los implicados lo conozcan y sepan exactamente qué tienen que hacer.

Alfredo Abad Domingo • No disponer de un buen Disaster Recovery Plan, o no haberlo probado una vez diseñado, solo se llega a hacer una única vez, por alguna de estas dos razones:

a) Después de sufrir el desastre, siendo uno el responsable de ello, significará que no le darán una segunda oportunidad: búscate otra compañía que administrar y, si la encuentras, no cometas el mismo error.

b) No te han despedido, pero la solución al problema fue tan violenta que ya nunca se te ocurrirá dejar de validar una copia de seguridad, no tener etiquetadas correctamente las cintas de backup o extraviar el calendario de operaciones.

¿No sé si compartís esta idea conmigo?

Joan Frigola • José Antonio ha hecho la introducción del verdadero tema a tratar.

Yo hice la introducción: lo bonito, lo que nos gusta a todos, y la mayoría de veces lo fácil.

En los años que llevo en esta profesión, me he encontrado con bastantes desastres, en la mayoría de ellos no existía ningún DRP; pero si es cierto que con la experiencia empiezas a darte cuenta que debes documentar.

Nuestro amigo Alfredo con sus preguntas nos hace reflexionar; pues si es verdad que disponer de un DRP y no haberlo probado nunca, mucho sentido no tiene, pero también es cierto que si lo pruebas y no funciona, los efectos laterales pueden a llegar a ser “no muy deseables”

No creo que la organización te eche por haber provocado “un paro” en la actividad del negocio. Si lo hace, sinceramente, a lo mejor te está haciendo un favor, pues de los errores se aprende y habrá servido ese error para ver los fallos del sistema.

El año pasado, ya con un DRP bastante actualizado…, tuvimos un gran desastre en el Host Iseries AS400 que contiene uno de nuestros ERPs. Fue una perdida total de los datos (no entraremos en detalles escabrosos). Bien, este sistema está redundado en otro Datacenter… y bien: basculamos. A priori todo tenía que ir bien según el DRP, pero resulta que días atrás IBM estuvo migrando la versión del sistema operativo (a la v7.1) y la maquina que teníamos en producción estaba en v6x. ¿Que creéis que pasó?

¿Estaba el DRP actualizado? ¿Cuantas organizaciones actualizan su DRP a cada cambio de un sistema de los miles que puedes llegar a tener?

… continuará (a ver si la gente se anima, hace comentarios, y finalmente expongo que pasó)

 

Manuel Suarez • Cuan importante es tenerlo, pero que poco se valora por parte de muchas empresas. No se valora ni se pretende valorarlo, y menos poner medios para que pueda ser funcional. Todo esto que comentáis esta muy bien y debería cumplirse, y uno de nuestros principales esfuerzos es conseguir que las empresas sean conscientes de su necesidad e importancia, pues estas medidas suponen una inversión adicional. Por que dos servidores si con uno funciona? porque dos cabinas si con una tenemos? dos de esto otras cosa allí? Claro, luego vienen las sorpresas, y a ver como le dices que no invirtió lo suficiente. En estas situaciones se tiende a minimizar el impacto del futuro desastre, realizando un seguimiento mas que continuo de toda la infraestructura y esperando que Murphy se olvide de ti.

Josep Padullés • ¿Y las pruebas de recuperación de copias de seguridad?
¿Estamos seguros de que en caso de desastre o pérdida de información nuestras copias de seguridad funcionarán correctamente?
¿Están documentados correctamente los procesos?

Si no es posible disponer de un DRP completo como mínimo debería verificarse regularmente la fiabilidad de los procesos de recuperación y las copias de seguridad.

Efraín Oswaldo Luna Mejía • Interesante debate.

Alfredo, comparto tu idea, afortunadamente no hemos tenido ningún desastre hasta el momento. Coincido con el grupo de documentar o tener un plan de recuperación de desastres, por cierto como realizáis el seguimiento de las tareas relacionadas con las copias de seguridad?, cada cuanto tiempo?

Manuel Suarez • Las copias se revisan diariamente que finalizan de forma correcta. Y se hacen restauraciones de esas copias cada cierto tiempo para verificar que funcionan, igual es mucho 3 semanas aproximadamente.

Ivan Tribiño • Ademas de que estoy de acuerdo al 100 % que es necesario este documento, en infraestructruras con cpd de respaldo , con gran cantidad de servidores y Hardware que participan en esa infraestructura , se debe documentar al minimo detalle los cambios que sufren los servidores (cambios hardware , PArches , Service Pack… ) , y a la par cada cierto tiempo con paradas programadas , probar (te toca pringar a altas horas) que el disaster-recovery funciona perfectamente con en ese documento.
Muchas veces se hace el documento y no se corrige , hasta que pasa lo que dice Alfredo.

Herramientas de administración indispensables en vuestro día a día

Para gente pragmática y amante de la tecnologia, os recomiendo un grupo de linkedIn: TechNet Spain

y en él tenemos un enlace muy interesante

En plan resumen:

Space Sniffer > tipo foldersizes/Treesize http://www.uderzo.it/main_products/space_sniffer/download.html añadir el jdiskreport a la lista, es un indispensable para averiguar donde esta el espacio ocupado en la unidad 😉

Tipus VNC / Teamviewer (500€/llicencia) / Dameware > Entorno es muy heterogéneo, es vital una herramienta centralizada que me permite conectarme a cualquier tipo de servidor. Es de pago eso si: http://www.royalts.com/main/home.aspx / Para control remoto de un PC fuera de nuestra red utilizo Crossloop o NtrConnect (un ordenador es gratuito). La verdad es que el refresco es un poco lento en casi todos los casos.

En cuanto a conexiones con entornos unix-linux mediante ssh, mi software de referencia es PuTTY,EasyCapture para captura de pantallas (áreas, ventanas, etc.) muy fácil, gratuito.

Una herramienta que me soluciona bastantes situaciones es logmein en su versión pro puedes configurar alertas por uso de disco, cpu, etc que te envia por mail, tienes información de rendimiento, control remoto, etc. Es de pago pero para entornos en los que por alguna razón no puedas poner Nagios o otra herramienta de monitorizaciòn es perfecta.

Una que me es muy útil y potente que te permite además monitorizar sistemas y servicios es Kaseya. Eso sí, es de pago.

La suite Sysinternals, extractores de registro de sucesos como Myeventviewer, algún sniffer como Wireshark, scanners de red como look@lan, netscan..

Spiceworks, que es una herramienta de administración centralizada para inventario, ticketing y monitorización de la red…es gratuita

4 herramientas, 1º NetScan para pequeñas auditorías locales y ligeros escaneos de red (ver quién está conectado, puertos abiertos…), muy configurable y potente. 2º MRemoteNG como gestor centralizado de conexiones a equipos remotos. Una maravilla. 3º Ketarin para mantener actualizadas, tanto las aplicaciones de administración (Sysinternals, Nirsoft, etc) como el repositorio de paquetes instalables (java, flash, reader, antivirus…). Y por último, la que para mí debería ser obligatoria en todo arsenal IT que se precie, KeePass, para almacenar la información sensible bien segura

Para encriptado de discos suelo instalar TrueCrypt (gratuito) y portable en pendrive.

Winscp para copiar archivos desde windows a linux/unix y viceversa. Herramienta sencillita, gratuita y portable: http://winscp.net/eng/docs/lang:es

Process Explorer para mirar esos los procesos que se están ejecutando y poder matarlos.

Otra herramienta que utilizo bastante y que recomiendo a todos aquellos que usan scripts para facilitar la administración de equipos en sistemas Windows es WMICodeCreator de la propia Microsoft. Tenéis la descarga disponible aquí: http://www.microsoft.com/en-us/download/details.aspx?id=8572

Aunque utilizar vbs para realizar tareas de administración no es la linea “oficial” de Microsoft desde que se publicara PowerShell, en mi caso encuentro bastante más sencillo usar esta herramienta para realizar determinadas tareas de administración. Los que estéis interesados en el tema del scripting en sistemas Windows, pasaos por este nuevo post que he creado: http://www.linkedin.com/groups/Webs-indispensables-Troubleshooting-4295617.S.229041530?view=&gid=4295617&type=member&item=229041530 donde iré colgando algunas de las paginas de recursos que utilizo en este área.

Edito: En este enlace podéis encontrar más información sobre como utilizar la herramienta y para que sirve: http://blogs.technet.com/b/askperf/archive/2010/02/02/two-minute-drill-wmi-code-creator.aspx

Para la parte virtual de VMware os recomiendo que os descarguéis la iso VM-Advanced, incorpora unas cuantas herramientas. Os dejo el link:  http://www.kendrickcoleman.com/index.php/Tech-Blog/vm-advanced-iso-free-tools-for-advanced-tasks.html

Para la seguridad,análisis forense os dejo la pagina del Pedro Sanchez donde publico un gran listado de herramientas muy utiles tanto de la familia windows como linux:  http://conexioninversa.blogspot.com.es/2011/11/101-utilidades-forenses.html

Y para los sistemas, redes, seguridad, os dejo los links de unas webs donde vienen los listados de distintas herramientas para la administración del día a día y mas:  http://www.gfi.com/blog/101-free-admin-tools/ http://www.sunbeltsoftware.com/stu/tools/ http://www.emmet-gray.com/index.html http://www.freebyte.com/systemutilities/

Nmap (http://nmap.org/) con su GUI para Windows Zenmap. Es para mi uno el más completo escaner de puertos: identifica los servicios, escanea puertos UDP, infiere el tipo de dispositivo y versión de software que lleva,… y por supuesto es freeware.   Netflow para controlar el uso de tus lineas WAN Para inventario: OCS (www.ocsinventory-ng.org/) NTUtilities de Dameware es fantastico para ejecutar scripts en background en equipos remotos, arrancar servicios, tocar el registro… Filezilla: version cliente y servidor ( https://filezilla-project.org/ ) PDFCreator: crear PDF, enviarlos por mail via script ( http://www.pdfforge.org/pdfcreator ) mRemote: Une a Putty, Terminal Server… todo en uno. Hay un mRemoteNG ( http://www.mremoteng.org/ ) que no sé si es la evolución del que uso. Ya direis. TFTP de solarwinds : http://www.solarwinds.com/products/freetools/free_tftp_server.aspx SnagIT para capturas de pantallas Foldersizes seria como un TreeSize/Space Sniffer Secure CRT para manejar routers Cisco… En esta web: http://www.ctrl-alt-del.com.au/CAD_TSUtils.htm hay cosas interesantes para el mundo TS/Citrix. Para purgar “basura” de perfiles: ICSweep IPscan para un escaneo rapido de la red.

Xinorbis para eliminar duplicados y mucho más, WondirStat, Revo unís taller …….. os envió los links https://delicious.com/u700001/Utilities

Os recomiendo esta herramienta, Total Network Monitor es un software gratuito para la monitorización continua de redes locales, computadoras individuales y servicios que requieren atención detallada y control cuidadoso. TNM advierte de cualquier problema por adelantado y genera un informe detallado sobre las circunstancias de la avería. http://www.softinventive.com/es/products/total-network-monitor/

Yo para la captura de pantalla en video uso el aplicativo Camtasia Studio 7, y solo para pantallazos uso el del s.o. “recortes”. Os recomiendo esta herramienta, Total Network Monitor es un software gratuito para la monitorización continua de redes locales, computadoras individuales y servicios que requieren atención detallada y control cuidadoso. TNM advierte de cualquier problema por adelantado y genera un informe detallado sobre las circunstancias de la avería. http://www.softinventive.com/es/products/total-network-monitor/

La herramienta indispensable para controlar el estado de mi infraestructura es Nagios Core. Herramienta Open Source de Monitorización .

Eso si , hay que dedicarle tiempo para configurarlo. Pero desde luego merece la pena. Para captura de pantallas yo he terminado por usar el Screen Video Recorder Gold. No es gratis, pero es muy económico. Con el camtasia tuve sustos, es decir, habiéndome pasado de duración, a la hora de grabar a disco, varias veces me dio errores y perdí todo el contenido webminar a los que asistía. Le puse una cruz de por vida. Éste, por ahora, me ha ido muy bien y puedes grabar hasta 3 ó 4 horas sin problema alguno. Tienes una versión demo en el site del fabricante. Espero te sea de utilidad. Un saludo.

http://www.attrice.info/cm/tfs/

Un herramienta que me resulta muy interesante es el PSR que lo podéis encontrar en cualquier Windows 7 o superior (en system32). Esta herramienta graba un proceso realizado por un usuario. Toma pantallazos, documenta clics y cuando acaba te lo guarda en formato MHT dentro de un zip. Muchas gracias por vuestros aportes, me han sido muy útiles.

2o aporte: Robocopy para sincronizar directorios,

Imagen

VMWare Topology Iscsi

vmware Topology iSCSI-LAN v2

Supongo que a más de uno le gustaría la idea que este blog fuera muy tecnológico… lo siento por ellos pues no lo va a ser. Sencillamente porqué con los años te das cuenta que lo que menos importa es la tecnologia que uses para lograr tu fin.

No puedo quejarme, pues conozco un amplio abanico de tecnologias. Pero voy a usar este ejemplo de topologia VMWare para que reflexionemos que aunque podría ser un modelo eficiente en algunas empresas, para otras puede ser todo lo contrario.

Os dejo, tengo un par de hijos impacientes que me esperan para hacer una buena partida a “jungle speed”, os lo recomiendo!! 😉

Gestor de proyectos IT

Hace pocos días estuve en el 25º aniversario de los estudios universitarios que en su día cursé en la E.U.P.G. (centro adscrito de la U.P.C. en Girona).

Yo soy de la 2ª promoción: del curso 1988/89. Los años pasan y uno no se da cuenta de lo que ha hecho en su vida profesional hasta que tiene que actualizar su CV para entrar de nuevo a la búsqueda de un nuevo puesto de trabajo.

En dicho evento, me gustó la exposición futurista de un especialista de Microsoft, pero sobretodo me gustó la más humana de un antiguo profesor que en su día fue rector de toda la Universidad de Girona.

En la mesa redonda posterior, se enfatizó el objetivo de todo ingeniero informático, que no deja de ser la de realizar tareas de gestión de proyectos, como posiblemente coordinación de equipos humanos… con el fin de dar soluciones a la empresa que nos tiene empleados.

En todos estos años tuve la suerte de trabajar en una gran compañía en la que crecí tanto profesional como personalmente. Nunca fue un camino de rosas, pues las adversidades siempre aparecieron, pero ahí está nuestro objetivo como bien nos indicaba ese gran profesor, como ingenieros debemos aportar soluciones sea cual sea la complejidad.

Los estudios cursados al fin y al cabo de nada nos sirvieron para buscar a posteriori trabajo, pero si nos dio una gran capacidad de abstracción, fruto del sufrimiento matemático que tuvimos que pasar para poder disfrutar de aquellas asignaturas más de nuestra especialidad, que nos ha permitido solucionar problemas tanto en el ámbito profesional como personal.

En mi caso, el hacer de becario (sin cobrar ni un céntimo) en mi ultimo año en la universidad es el que me dio la puerta de acceso al que ha sido durante 18 años mi primer y único trabajo.

Me hizo sonreír interiormente, en la mesa redonda, cuando los chavales de ultimo año de carrera de informática, preocupados al sentir que es muy complicado encontrar trabajo sin tener experiencia; o que esto de hacer de becario a 3 € la hora era muy mal remunerado.

Os podéis imaginar porqué sonreí: yo no cobré nada, pero sinceramente, si hubiera tenido que pagar, lo hubiera hecho, pues en su día estuve conjuntamente con 2 compañeros más, implantando el primer IBM AS400 de la Universidad, conocimientos que luego me permitieron acceder con gran facilidad a la gran multinacional sector automoción en la que he estado trabajando hasta la fecha.

Esta es mi introducción, la que me anima desde aquí a abrir este blog para poder ayudar con mi granito de arena a esos futuros ingenieros informáticos.