Data blog del sitio

3 Formas de Extraer Datos Financieros SIN Python

2020.10.30 06:58 melisaxinyue 3 Formas de Extraer Datos Financieros SIN Python

El mercado financiero es un lugar de riesgos e inestabilidad. Es difícil predecir cómo se desarrollará la curva y, a veces, para los inversores, una decisión podría ser un movimiento decisivo. Esto es el porqué de que los profesionales experimentados nunca dejan de prestar atención a los datos financieros.
Los seres humanos, si no tenemos una base de datos con datos bien estructurados, no podremos llegar a manejar información voluminosa. El raspado de datos es la solución que pone los datos completos al alcance de su mano.

Tabla de contenidos

¿Qué Estamos Extrayendo Cuando Scrapeamos Datos Financieros?
¿Por Qué Extraer Datos Financieros?
¿Cómo Scrapear Datos Financieros sin Python?
¡Empecemos!

¿Qué Estamos Extrayendo Cuando Scrapeamos Datos Financieros?

Cuando se trata de extraer datos financieros, los datos del mercado de valores son el centro de atención. Pero hay más, precios de negociación y cambios de valores, fondos mutuos, contrato de futuros, criptomonedas, etc. Los estados financieros, los comunicados de prensa y otras noticias relacionadas con el negocio también son fuentes de datos financieros que la gente va a scrapear.

¿Por Qué Extraer Datos Financieros?

Los datos financieros, cuando se extraen y analizan en tiempo real, pueden proporcionar información valiosa para inversiones y comercio. Y las personas en diferentes puestos recopilan datos financieros para diversos fines.

Predicción del mercado de valores

Las organizaciones de comercio de acciones aprovechan los datos de los portales comerciales en línea como Yahoo Finance para mantener registros de los precios de las acciones. Estos datos financieros ayudan a las empresas a predecir las tendencias del mercado y a comprar / vender acciones para obtener las mayores ganancias. Lo mismo ocurre con las operaciones de futuros, monedas y otros productos financieros. Con datos completos a mano, la comparación cruzada se vuelve más fácil y se manifiesta una imagen más amplia.

Análisis de renta variable

"No pongas todos los huevos en una canasta". Los gestores de Portfolio realizan estudios de renta variable para predecir el rendimiento de varias acciones. Los datos se utilizan para identificar el patrón de sus cambios y desarrollar aún más un modelo de negociación algorítmica. Antes de llegar a este fin, se involucrará una gran cantidad de datos financieros en el análisis cuantitativo.

Análisis de sentimiento del mercado financiero

La recopilación de datos financieros no se trata simplemente de números. Las cosas pueden ir cualitativamente. Podemos encontrar que la presuposición planteada por Adam Smith es insostenible: las personas no siempre son económicas, o digamos, racionales. La economía conductal revela que nuestras decisiones son susceptibles a todo tipo de sesgos cognitivos, simplemente emociones.
Con los datos de noticias financieras, blogs, publicaciones y reseñas relevantes en las redes sociales, las organizaciones financieras pueden realizar análisis de sentimientos para captar la actitud de las personas hacia el mercado, que puede ser un indicador de la tendencia del mercado.

¿Cómo Scrapear Datos Financieros sin Python?

Si no sabe codificar, esté atento, déjeme explicarle cómo puede extraer datos financieros con el apoyo de Octoparse. Yahoo Finance es una buena fuente para obtener datos financieros completos y en tiempo real. A continuación, le mostraré cómo extraer datos del sitio.
Además, hay muchas fuentes de datos financieros con información actualizada y valiosa de la que puede extraer, como Google Finance, Bloomberg, CNNMoney, Morningstar, TMXMoney, etc. Todos estos sitios son códigos HTML, lo que significa que todas las tablas, artículos de noticias y otros textos / URLs se pueden extraer de forma masiva mediante una herramienta de raspado web.
Para saber más sobre qué es el web scraping y para qué se utiliza, puede consultar este artículo.

¡Empecemos!

Hay 3 formas para obtener los datos:
📷Utilizar una plantilla de raspado web
📷Crear sus rastreadores web
📷Acudir a los servicios de extracción de datos

1. Utilizar una plantilla de raspado web de Yahoo Finance

Con el fin de ayudar a los novatos a comenzar con facilidad en el web scraping, Octoparse ofrece una variedad de plantillas de web scraping. Estas plantillas son rastreadores preformateados y listos para usar. Los usuarios pueden elegir uno de ellos para extraer datos de las páginas respectivas al instante.
📷
La plantilla de Yahoo Finance ofrecida por Octoparse está diseñada para raspar los datos de Cryptocurrency. No se requiere más configuración. Simplemente haga clic en "probar" y obtendrá los datos en unos minutos.
📷

2. Crear un rastreador desde cero en 2 pasos

Además de los datos de Criptomonedas, también puede crear un rastreador desde cero en 2 pasos para extraer índices mundiales de Yahoo Finance. Un rastreador personalizado es muy flexible en términos de extracción de datos. Este método también se puede utilizar para extraer otras páginas de Yahoo Finance.
Paso 1: Introducir la dirección web para crear un rastreador
El bot cargará el sitio web en el navegador integrado, y un clic en el Tips Panel puede activar el proceso de detección automática y completar los campos de datos de la tabla.
📷
Paso 2: Ejecutar el rastreador para obtener datos
Cuando todos los datos deseados estén resaltados en rojo, guarde la configuración y ejecute el rastreador. Como puede ver en la ventana emergente, todos los datos se han scrapeardo correctamente. Ahora, puede exportar los datos a Excel, JSON, CSV o a su base de datos a través de API.
📷

3.Servicios de extracción de datos financieros

Si scrapea datos financieros de vez en cuando y en una cantidad bastante pequeña, puede utilizar las herramientas útiles de raspado web. Puede que encuentre algo interesante durante el proceso de construir sus propios rastreadores. Sin embargo, si necesita datos voluminosos para hacer un análisis profundo, digamos, millones de registros, y tiene un alto estándar de precisión, es mejor entregar sus necesidades de raspado a un grupo de profesionales confiables del raspado web.

¿Por qué merecen la pena los servicios de raspado de datos?

  1. Ahorro de tiempo y energía
Lo único que tiene que hacer es transmitir claramente al proveedor de servicios de datos qué datos desea. Una vez hecho esto, el equipo de servicio de datos se encargará del resto sin problemas. Puede sumergirse en su negocio principal y hacer lo que se le da bien. Deje que los profesionales hagan el trabajo de raspado por usted.
  1. Cero curva de aprendizaje y problemas tecnológicos
Incluso la herramienta de raspado más fácil requiere tiempo para dominarla. El entorno en cambio constante en diferentes sitios web puede ser difícil de manejar. Y cuando está scrapeando a gran escala, puede tener problemas como la prohibición de IP, baja velocidad, datos duplicados, etc. El servicio de raspado de datos puede liberarlo de estos problemas.
  1. Sin violaciones legales
Si no presta mucha atención a los términos de servicio de las fuentes de datos de las que está extrayendo, puede tener problema en el web scraping. Con el apoyo de un asesor experimentado, un proveedor de servicios de raspado web profesional trabaja de acuerdo con las leyes y todo el proceso de raspado se implementará de manera legítima.
submitted by melisaxinyue to u/melisaxinyue [link] [comments]


2020.10.30 05:27 melisaxinyue Los 3 Usos Más Prácticos de Herramienta de Web Scraping de Datos de Comercio Electrónico

Tableta de Contenido
3 Usos Prácticos de Datos de Ecommerce
3 herramientas populares de scrapear datos de eCommerce
Conclusión
En el mundo actual del comercio electrónico, las herramientas de extracción de datos de comercio electrónico ganan gran popularidad en todo el mundo a medida que la competencia entre los propietarios de negocios de comercio electrónico se vuelve más feroz cada año. Las herramientas de extracción de datos se convierten en la nueva técnica y herramienta para ayudarlos a mejorar su rendimiento.
Muchos propietarios de tiendas usan una herramienta de extracción de datos de comercio electrónico para monitorear las actividades del competidor y el comportamiento de los clientes puede ayudarlos a mantener su competitividad y mejorar las ventas. Si no tiene idea de cómo hacer un uso completo de las herramientas de extracción de datos de comercio electrónico, quédese conmigo y analizaremos los 3 usos más prácticos de una herramienta de extracción y cómo esta herramienta ayuda a hacer crecer su negocio.

Tres Usos Prácticos de Datos de Comercio Electrónico

1) Monitoreo de Precio

El precio es uno de los aspectos más críticos que afectan el interés de compra de los clientes. El 87% de los compradores en línea indican que el precio es el factor más importante que afecta los comportamientos de compra, seguido del costo de envío y la velocidad. Esa investigación sugiere que un cliente potencial no dudará en salir de su tienda si su precio no coincide con sus expectativas.
Además, según un estudio de AYTM, el 78 por ciento de los compradores comparan precios entre dos o más marcas y luego optan por el precio más bajo. Con acceso fácil a muchas herramientas gratuitas de comparación de precios en línea, los compradores en línea pueden ver fácilmente el precio de un artículo específico en docenas de marcas y mercados.
Es necesario que los propietarios de negocios en línea tengan una herramienta de extracción de datos de comercio electrónico para extraer información de precios de las páginas web del competidor o de aplicaciones de comparación de precios. De lo contrario, es probable que tenga problemas para atraer nuevos clientes a su tienda o mantener su base de clientes actual, porque no sabe cuándo ni cómo ajustar su precio para atender a esos clientes sensibles al precio.
📷

2) Análisis del Competidor

Somos conscientes de que mejorar el servicio de envío es otra solución para aumentar las ventas. El 56% de los vendedores en línea ofrecen envío gratuito (y devoluciones fáciles) independientemente del precio de compra o del tipo de producto.
Muchos vendedores online utilizan el envío gratuito como estrategia de marketing para animar a las personas a que les compren o incluso que les compren más. Por ejemplo, es bastante común que los clientes estén más dispuestos a gastar $ 100 en un producto con envío gratuito en lugar de comprar un producto de $ 90 que cuesta $ 10 por el envío. Además, es común que los clientes compren más artículos para obtener una oferta de envío gratis.
Puede utilizar una herramienta de extracción de datos de comercio electrónico para averiguar cuántos de sus competidores ofrecen un servicio de envío gratuito. Con una herramienta de extracción de datos, puede extraer y recopilar fácilmente los datos en tiempo real. En este caso, si no brindan un servicio de envío gratuito, puede atraer a sus clientes ofreciéndolo.

3) Análisis del Sentimiento del Cliente

Saber cómo se sienten las audiencias de sus competidores sobre los productos o las marcas puede ayudarlo a evaluar su estrategia de marketing y la gestión de la experiencia del cliente. Las herramientas de extracción de datos de comercio electrónico pueden ayudarlo a recopilar dicha información.
Las voces de los clientes que recopila de sus competidores lo ayudarán a comprender qué valoran los clientes y cómo puede brindarles un mejor servicio. Sus voces se encuentran en su mayoría dispersas entre los comentarios y las conversaciones en las tiendas y publicaciones e interacciones de sus competidores en sus redes sociales. Con dicha información a mano, sabrá qué quieren los clientes del producto y qué es lo que les gusta o que no les gusta.
Para superar a sus competidores, es necesario que obtenga toda esa información, la investigue y saque conclusiones. Por lo tanto, puede ajustar su estrategia de marketing o sus productos / servicios según ella.
📷Ahora puede que se esté preguntando qué herramientas de raspado se pueden utilizar para estos fines. Aquí, me gustaría compartir con usted esta lista corta de las herramientas de extracción de datos de comercio electrónico más populares. ¡Debería probarlos!

3 herramientas de scrapear datos de comercio electrónico

1) Octoparse

Octoparse es una herramienta potente y gratuita de extracción de datos de comercio electrónico con una interfaz de apuntar y hacer clic que es fácil de usar. Tanto los usuarios de Windows como de Mac lo encontrarán fácil de usar para extraer casi todo tipo de datos que necesita de un sitio web. Con su nuevo algoritmo de detección automática, los usuarios con o sin conocimientos de codificación pueden extraer gran cantidad de datos en unos segundos.
Pros: Octoparse proporciona más de 50 modelos prediseñados para todos los usuarios, abarcando grandes sitios web como Amazon, Facebook, Twitter, Instagram, Walmart, etc. Todo lo que necesita hacer es introducir las palabras clave y la URL, luego esperar el resultado de los datos. Además, proporciona una versión gratuita para todas las personas. Los usuarios premium pueden utilizar funciones como la programación del rastreador y cloud extraction para que el proceso requiera menos tiemp.
Cons: Octoparse no puede extraer datos de archivos PDF. No puede descargar archivos automáticamente, mientras que le permite extraer las URLs de imágenes, PDF y otros tipos de archivos. Puede utilizar un software de descarga automática para descargar estos archivos de forma masiva con la URL extraída por Octoparse.

2) Parsehub

ParseHub funciona con aplicaciones de una sola página, aplicaciones de varias páginas y otras tecnologías web modernas. ParseHub puede manejar Javascript, AJAX, cookies, sesiones y redirecciones. ParseHub can handle Javascript, AJAX, cookies, sessions, and redirects. Puede completar formularios fácilmente, loop through dropdowns, login to websites, hacer clic en mapas interactivos y tratar con sitios web que aplican técnicas de desplazamiento infinito.
Pros: Parsehub es compatible con los sistemas Windows y Mac OS. Proporciona una versión gratuita para personas con necesidades de extracción de datos de comercio electrónico.
Cons: La versión gratuita es bastante limitada con solo 5 proyectos y 200 páginas por cada ejecución. No admitía la extracción de documentación. Y algunas funciones avanzadas son difíciles de usar a veces.

3) 80legs

80legs es una herramienta de extracción de datos web que permite a los usuarios crear y ejecutar rastreadores web a través de su software como plataforma de servicio. Está construido sobre una red informática de cuadrícula distribuida. Esta cuadrícula consta de aproximadamente 50,000 computadoras individuales distribuidas en todo el mundo y utiliza tecnología de monitoreo de ancho de banda para evitar excedentes de límites de ancho de banda.
Pros: 80legs es más adecuado para pequeñas empresas y individuales. Ofrece planes de servicio únicos para que los clientes paguen solo por lo que rastrean.
Cons: 80legs no puede ayudar a obtener una gran cantidad de datos, debe elegir entre datos rastreados de conjuntos personalizados, API preconstruida y aplicación de rastreo para desarrollar.

Conclusión

Una vez sepa cómo usar las herramientas de extracción de datos de comercio electrónico para ayudarlo a obtener los datos necesarios, la información que puede obtener de los datos es otra historia. Intente hacer un análisis de datos y encuentre formas de visualizar los datos. Utilice tus datos.
Puede probar los métodos de análisis simples mencionados en este artículo para conocer a sus usuarios a través del análisis de datos.
submitted by melisaxinyue to u/melisaxinyue [link] [comments]


2020.07.24 10:53 melisaxinyue Cómo Web Scraping Ayuda a Hedge Funds Obtener Ventaja

Por favor haga clic en el artículo original: Cómo Web Scraping Ayuda a Hedge Funds Obtener Ventaja
Se ha vuelto imposible ocultar datos previamente ocultos. Muchas herramientas avanzadas ahora pueden extraer nuevos datos o incluso extraerlos de varias fuentes en Internet. Un análisis más profundo ha permitido a los fondos de cobertura explotar una fuente alfa importante nueva y en crecimiento.
A principios de año, Greenwich Associates y Thomson Reuters colaboraron en un estudio para ofrecer un conocimiento sobre los tremendos cambios en el panorama de la investigación de inversiones. Con el título, "El futuro de la Investigación de Inversiones", contiene muchos factores contribuyentes que respaldan este cambio cualitativo y tiene algunas observaciones específicamente informativas sobre datos alternativos.
https://preview.redd.it/45coxf0tqrc51.png?width=620&format=png&auto=webp&s=3f2a00406793b46e42e1fd1fee937cdd426fe4a2
La importancia de los conjuntos de datos alternativos había sido revisada previamente; estos incluyen datos de geolocalización e imágenes satelitales, están demostrando que cubren fondos hay un montón de alfa sin explotar en estos conjuntos de datos para instituciones listas para invertir su dinero en su adquisición, para que puedan aprovechar las ventajas de información importante en la competencia.
Según el estudio de Greenwich/Thomson Reuters, está claro que la empresa de inversión promedio invierte alrededor de $900,000 en datos alternativos anualmente, mientras que sus datos alternativos tienen una estimación de los presupuestos anuales de la industria actualmente en torno a $300 millones. Esto es casi dos veces más que el año anterior. En base a estos datos, web-scraped data se han identificado como los datos más populares adoptados por los profesionales de inversión.
https://preview.redd.it/norg15juqrc51.png?width=418&format=png&auto=webp&s=1f2b21c54cb116ac5f4864504ffced8930310b05
Fuente:
En el proceso de web scraping (considerado como "data scraping", "spidering" o "Extracción de datos automatizada"), el software se utiliza para extraer datos que son potencialmente valiosos de fuentes en línea. Mientras tanto, para los fondos de cobertura, tener que pagar a las empresas para obtener estos datos en particular puede ayudarlos a tomar decisiones de inversión más inteligentes y razonables, incluso antes que sus competidores.
Quandl es un ejemplo de una empresa así y ahora es el centro de atracción en la revolución de los datos alternativos. Lo que hace esta compañía canadiense es scrape la web para compilar conjuntos de datos, o colaborar con expertos en dominios, y luego ofrecer los datos a la venta a los fondos de cobertura, así como a otros clientes que muestran interés.
Hay muchas formas de web-scraped data según lo informado por Greenwich, que incluyen información de redes de expertos, precios de productos, datos de tráfico web y tendencias de búsqueda.
Un ejemplo es cómo Goldman Sachs Asset Management scrape el tráfico web de Alexa.com, que pudo reconocer un aumento vertiginoso en las visitas al sitio web HomeDepot.com. El administrador de activos pudo adquirir las acciones antes de que la compañía aumentara su perspectiva y cosechar los beneficios cuando sus acciones finalmente se aprecian.
Entre sus diversas estrategias, una compañía de datos alternativa, Eagle Alpha, scrape datos de precios de grandes minoristas; y esto ha demostrado ser valioso en la provisión de un indicador direccional para las ventas de productos de consumo. Por ejemplo, cuando los datos se obtienen de sitios web de electrónica en los Estados Unidos, la compañía puede observar que los productos GoPro están disminuyendo su demanda y, por lo tanto, la conclusión correcta es que el fabricante de la cámara de acción no alcanzará los objetivos 2015Q3. Más del 68 por ciento de las recomendaciones fueron comprar las acciones dos días antes de que se declarara públicamente el bajo rendimiento de GoPro.
El valor de los datos de las redes sociales no puede ser subestimado. Es el conjunto de datos más grande que nos ayuda a comprender el comportamiento social y las empresas están scraping activamente estos datos para descubrir su valor oculto.
Según un informe reciente de Bloomberg, "El flujo de Twitter proporciona conjuntos de datos alternativos muy grandes y saludables, particularmente para los investigadores que buscan alpha", el servicio de Bloomberg’s noticias recién lanzado toma en las noticias relacionadas con finance-related twitter feed y escaneó valiosos tweets de noticias para perspectivas de inversión. Énfasis adicional
Por el valor de los datos de las redes sociales, se descubrió que "los movimientos de Dow Jones pueden predecirse mediante estados de ánimo colectivos obtenidos directamente de los feeds a gran escala de Twitter, con una precisión de alrededor del 87,6 por ciento.
EY lanzó una encuesta en noviembre de 2017 y descubrió que los datos de las redes sociales estaban siendo utilizados o utilizados por más de una cuarta parte de los fondos de cobertura en sus estrategias de inversión dentro de 6-12 meses. Los proveedores obtienen personalmente los datos de fuentes como Facebook, YouTube y Twitter, o, a veces, a través de herramienta de web scraping como Octoparse.
Cuando los sitios web populares a los que se puede acceder fácilmente, como Amazon y Twitter, activamente be scrapped. Los fondos de cobertura se impulsarán a buscar regularmente fuentes de datos nuevas y especiales para sacar a la luz, señales comerciales precisas para permanecer en la cima de su juego. Por esta razón, no habrá fin a cuán profundamente pueden profundizar las empresas. La dark web puede incluso estar incluida.
https://preview.redd.it/61ywx5jxqrc51.png?width=620&format=png&auto=webp&s=57b2e1792667b1b804101cfb18f574117f8fa282
Los datos scraped pueden incluso incluir datos de clientes o individuos, especialmente los que pueden extraerse de diferentes fuentes, como antecedentes penales, registros de vuelo, directorios telefónicos y registros electorales. Con base en los argumentos que giran en torno a los problemas con los datos personales que ganaron popularidad este año, particularmente con el surgimiento del escándalo de Cambridge Analytica en Facebook, los scrappers pronto encontrarán una fuerte oposición de los promotores de leyes de privacidad de datos.
Tammer Kamel, CEO y Fundador de Quandl, ha declarado recientemente que existe una "healthy paranoia" entre las diferentes organizaciones para eliminar la información personal antes de las ventas de los conjuntos de datos alternativos de su empresa, y ese paso en particular puede acarrear graves consecuencias. En cualquier caso, la protección reglamentaria adecuada es primordial en este nivel. Esto implica que se puede recopilar demasiada información con respecto a un individuo, ya que todavía no tenemos un conjunto de normas de gobierno.
El año pasado, el Informe de Ley de Hedge Fund declaró que "a pesar de que el comercio electrónico ha madurado relativamente, la recolección automática de datos aún no es legal. En la medida en que han surgido muchos casos para analizar disputas de scraping. Debido con los estatutos federales y estatales diferentes, no existe una ley particular, y las decisiones anteriores se consideran específicas de los hechos ”. Siendo realistas, algunos casos legales complicados apoyan a los scrapers ...
Además, la federal Computer Fraud y Abuse Act, representada como CFAA de los Estados Unidos, ha sido conocida como una ley que impone responsabilidad a aquellos que deliberadamente obtienen acceso a computadoras no autorizadas o van más allá de su acceso autorizado" Debido a esto, muchas empresas especifican la prevención de terceros que intentan recopilar datos. En 2017, hubo este caso popular - HiQ Labs vs LinkedIn, donde LinkedIn hizo uso de CFAA es que HiQ destruye su vida útil mediante usando robots en los perfiles de usuarios públicos para obtener datos. Finalmente, LinkedIn recibió la orden legal de eliminar la tecnología que impedía que HiQ Labs realizara la operación de raspado, porque no requiere autorización de acceso público para acceder a la página de perfil.
También debe mencionarse que el web scraping es un arma de doble filo y no siempre se utiliza para el bien mayor. Los ciberdelincuentes pueden arruinar la reputación de una empresa si los delincuentes la utilizan, por ejemplo, para robar contenido con derechos de autor. Dado que no se puede determinar la intención de las personas detrás del programa deployed bots, puede ser muy difícil determinar la intención maliciosa de un programa.
Además, si los web scraping bots se vuelven más sofisticados, podrán abrirse paso aún más en aplicaciones web y API. Una instancia es el uso de IP proxy - esto incluso hará que el ataque malicioso sea más exitoso.
https://preview.redd.it/mrbyjr1zqrc51.png?width=620&format=png&auto=webp&s=68626fe5588a1d287147bc722b632476cde04615
Estructuras vitales de un ataque
Incluso con la forma en que se manifiestan estos problemas, Hedge funds probablemente no dejarán de adoptar el web scraping, en particular, si hay más oportunidades como acceder a oportunidades de inversión nuevas y más rentables En realidad, según una estadística, alrededor del 46 por ciento del tráfico a través de Internet es el resultado de web-scraping bots. Cuando se scrapped la web para mencionar a una determinada empresa, se puede proporcionar a los fondos de cobertura una idea muy clara de la percepción de su cliente y su perspectiva.
Con más pruebas de la importancia del web scraping para todo el uso en la industria de los fondos de cobertura, legítimamente o no, parece que nuestro mundo en línea está totalmente preparado para someterse a más análisis de forma más regular y de cerca que nunca.
submitted by melisaxinyue to hedgefund [link] [comments]


2020.07.22 11:57 melisaxinyue Las 20 Mejores Herramientas de Web Scraping para Extracción de Datos

Web Scraping (también conocido como extracción de datos de la web, web crawling) se ha aplicado ampliamente en muchos campos hoy en día. Antes de que una herramienta de web scraping llegue al público, es la palabra mágica para personas normales sin habilidades de programación. Su alto umbral sigue bloqueando a las personas fuera de Big Data. Una herramienta de web scraping es la tecnología de rastreo automatizada y cierra la brecha entre Big Data y cada persona.
¿Cuáles son los beneficios de usar una herramienta de web spider?
Aquí está el trato
Enumeré 20 MEJORES web scrapers para usted como referencia. ¡Bienvenido a aprovecharlo al máximo!
1. Octoparse
Octoparse es un free online spider para extraer casi todo tipo de datos que necesita en los sitios web. Puede usar Octoparse para extraer un sitio web con sus amplias funcionalidades y capacidades. Tiene dos tipos de modo de operación: Modo Asistente y Modo Avanzado, para que los que no son programadores puedan aprender rápidamente. La interfaz fácil de apuntar y hacer clic puede guiarlo a través de todo el proceso de extracción. Como resultado, puede extraer fácilmente el contenido del sitio web y guardarlo en formatos estructurados como EXCEL, TXT, HTML o sus bases de datos en un corto período de tiempo.
Además, proporciona una Programada Cloud Extracción que le permite extraer los datos dinámicos en tiempo real y mantener un registro de seguimiento de las actualizaciones del sitio web.
También puede extraer sitios web complejos con estructuras difíciles mediante el uso de su configuración incorporada de Regex y XPath para localizar elementos con precisión. Ya no tiene que preocuparse por el bloqueo de IP. Octoparse ofrece Servidores Proxy IP que automatizarán las IP y se irán sin ser detectados por sitios web agresivos.
Para concluir, Octoparse debería poder satisfacer las necesidades de rastreo de los usuarios, tanto básicas como avanzadas, sin ninguna habilidad de codificación.
2. Cyotek WebCopy
WebCopy es un website crawler gratuito que le permite copiar sitios parciales o completos localmente web en su disco duro para referencia sin conexión.
Puede cambiar su configuración para decirle al bot cómo desea rastrear. Además de eso, también puede configurar alias de dominio, cadenas de agente de usuario, documentos predeterminados y más.
Sin embargo, WebCopy no incluye un DOM virtual ni ninguna forma de análisis de JavaScript. Si un sitio web hace un uso intensivo de JavaScript para operar, es más probable que WebCopy no pueda hacer una copia verdadera. Es probable que no maneje correctamente los diseños dinámicos del sitio web debido al uso intensivo de JavaScript
3. HTTrack
Como programa gratuito de rastreo de sitios web, HTTrack proporciona funciones muy adecuadas para descargar un sitio web completo a su PC. Tiene versiones disponibles para Windows, Linux, Sun Solaris y otros sistemas Unix, que cubren a la mayoría de los usuarios. Es interesante que HTTrack pueda reflejar un sitio, o más de un sitio juntos (con enlaces compartidos). Puede decidir la cantidad de conexiones que se abrirán simultáneamente mientras descarga las páginas web en "establecer opciones". Puede obtener las fotos, los archivos, el código HTML de su sitio web duplicado y reanudar las descargas interrumpidas.
Además, el soporte de proxy está disponible dentro de HTTrack para maximizar la velocidad.
HTTrack funciona como un programa de línea de comandos, o para uso privado (captura) o profesional (espejo web en línea). Dicho esto, HTTrack debería ser preferido por personas con habilidades avanzadas de programación.
4. Getleft
Getleft es un capturador de sitios web gratuito y fácil de usar. Le permite descargar un sitio web completo o cualquier página web individual. Después de iniciar Getleft, puede ingresar una URL y elegir los archivos que desea descargar antes de que comience. Mientras avanza, cambia todos los enlaces para la navegación local. Además, ofrece soporte multilingüe. ¡Ahora Getleft admite 14 idiomas! Sin embargo, solo proporciona compatibilidad limitada con Ftp, descargará los archivos pero no de forma recursiva.
En general, Getleft debería poder satisfacer las necesidades básicas de scraping de los usuarios sin requerir habilidades más sofisticadas.
5. Scraper
Scraper es una extensión de Chrome con funciones de extracción de datos limitadas, pero es útil para realizar investigaciones en línea. También permite exportar los datos a las hojas de cálculo de Google. Puede copiar fácilmente los datos al portapapeles o almacenarlos en las hojas de cálculo con OAuth. Scraper puede generar XPaths automáticamente para definir URL para scraping. No ofrece servicios de scraping todo incluido, pero puede satisfacer las necesidades de extracción de datos de la mayoría de las personas.
6. OutWit Hub
OutWit Hub es un complemento de Firefox con docenas de funciones de extracción de datos para simplificar sus búsquedas en la web. Esta herramienta de web scraping puede navegar por las páginas y almacenar la información extraída en un formato adecuado.
OutWit Hub ofrece una interfaz única para extraer pequeñas o grandes cantidades de datos por necesidad. OutWit Hub le permite eliminar cualquier página web del navegador. Incluso puede crear agentes automáticos para extraer datos.
Es una de las herramientas de web scraping más simples, de uso gratuito y le ofrece la comodidad de extraer datos web sin escribir código.
7. ParseHub
Parsehub es un excelente web scraper que admite la recopilación de datos de sitios web que utilizan tecnología AJAX, JavaScript, cookies, etc. Su tecnología de aprendizaje automático puede leer, analizar y luego transformar documentos web en datos relevantes.
La aplicación de escritorio de Parsehub es compatible con sistemas como Windows, Mac OS X y Linux. Incluso puede usar la aplicación web que está incorporado en el navegador.
Como programa gratuito, no puede configurar más de cinco proyectos públicos en Parsehub. Los planes de suscripción pagados le permiten crear al menos 20 proyectos privados para scrape sitios web.
8. Visual Scraper
VisualScraper es otro gran web scraper gratuito y sin codificación con una interfaz simple de apuntar y hacer clic. Puede obtener datos en tiempo real de varias páginas web y exportar los datos extraídos como archivos CSV, XML, JSON o SQL. Además de SaaS, VisualScraper ofrece un servicio de web scraping como servicios de entrega de datos y creación de servicios de extracción de software.
Visual Scraper permite a los usuarios programar un proyecto para que se ejecute a una hora específica o repetir la secuencia cada minuto, día, semana, mes o año. Los usuarios pueden usarlo para extraer noticias, foros con frecuencia.
9. Scrapinghub
Scrapinghub es una Herramienta de Extracción de Datos basada Cloud que ayuda a miles de desarrolladores a obtener datos valiosos. Su herramienta de scraping visual de código abierto permite a los usuarios raspar sitios web sin ningún conocimiento de programación.
Scrapinghub utiliza Crawlera, un rotador de proxy inteligente que admite eludir las contramedidas de robots para rastrear fácilmente sitios enormes o protegidos por robot. Permite a los usuarios rastrear desde múltiples direcciones IP y ubicaciones sin la molestia de la administración de proxy a través de una simple API HTTP.
Scrapinghub convierte toda la página web en contenido organizado. Su equipo de expertos está disponible para obtener ayuda en caso de que su generador de rastreo no pueda cumplir con sus requisitos

10. Dexi.io
As a browser-based web crawler, Dexi.io allows you to scrape data based on your browser from any website and provide three types of robots for you to create a scraping task - Extractor, Crawler, and Pipes. The freeware provides anonymous web proxy servers for your web scraping and your extracted data will be hosted on Dexi.io’s servers for two weeks before the data is archived, or you can directly export the extracted data to JSON or CSV files. It offers paid services to meet your needs for getting real-time data.
Como web scraping basado en navegador, Dexi.io le permite scrape datos basados en su navegador desde cualquier sitio web y proporcionar tres tipos de robots para que pueda crear una tarea de scraping: extractor, rastreador y tuberías. El software gratuito proporciona servidores proxy web anónimos para su web scraping y sus datos extraídos se alojarán en los servidores de Dexi.io durante dos semanas antes de que se archiven los datos, o puede exportar directamente los datos extraídos a archivos JSON o CSV. Ofrece servicios pagos para satisfacer sus necesidades de obtener datos en tiempo real.
11. Webhose.io
Webhose.io permite a los usuarios obtener recursos en línea en un formato ordenado de todo el mundo y obtener datos en tiempo real de ellos. Este web crawler le permite rastrear datos y extraer palabras clave en muchos idiomas diferentes utilizando múltiples filtros que cubren una amplia gama de fuentes
Y puede guardar los datos raspados en formatos XML, JSON y RSS. Y los usuarios pueden acceder a los datos del historial desde su Archivo. Además, webhose.io admite como máximo 80 idiomas con sus resultados de crawling de datos. Y los usuarios pueden indexar y buscar fácilmente los datos estructurados rastreados por Webhose.io.
En general, Webhose.io podría satisfacer los requisitos de scraping elemental de los usuarios.
12. Import. io
Los usuarios pueden formar sus propios conjuntos de datos simplemente importando los datos de una página web en particular y exportando los datos a CSV.
Puede scrape fácilmente miles de páginas web en minutos sin escribir una sola línea de código y crear más de 1000 API en función de sus requisitos. Las API públicas han proporcionado capacidades potentes y flexibles, controle mediante programación Import.io para acceder automáticamente a los datos, Import.io ha facilitado el rastreo integrando datos web en su propia aplicación o sitio web con solo unos pocos clics.
Para satisfacer mejor los requisitos de rastreo de los usuarios, también ofrece una aplicación gratuita para Windows, Mac OS X y Linux para construir extractores y rastreadores de datos, descargar datos y sincronizarlos con la cuenta en línea. Además, los usuarios pueden programar tareas de rastreo semanalmente, diariamente o por hora.
13. 80legs
80legs es una poderosa herramienta de web crawling que se puede configurar según los requisitos personalizados. Admite la obtención de grandes cantidades de datos junto con la opción de descargar los datos extraídos al instante. 80legs proporciona un rastreo web de alto rendimiento que funciona rápidamente y obtiene los datos requeridos en solo segundos.
14. Spinn3r
Spinn3r le permite obtener datos completos de blogs, noticias y sitios de redes sociales y RSS y ATOM. Spinn3r se distribuye con un firehouse API que gestiona el 95% del trabajo de indexación. Ofrece protección avanzada contra spam, que elimina spam y los usos inapropiados del lenguaje, mejorando así la seguridad de los datos.
Spinn3r indexa contenido similar a Google y guarda los datos extraídos en archivos JSON. El web scraper escanea constantemente la web y encuentra actualizaciones de múltiples fuentes para obtener publicaciones en tiempo real. Su consola de administración le permite controlar los scraping y la búsqueda de texto completo permite realizar consultas complejas sobre datos sin procesar.
15. Content Grabber
Content Grabber es un software de web crawler dirigido a empresas. Le permite crear agentes de rastreo web independientes. Puede extraer contenido de casi cualquier sitio web y guardarlo como datos estructurados en el formato que elija, incluidos los informes de Excel, XML, CSV y la mayoría de las bases de datos.
Es más adecuado para personas con habilidades avanzadas de programación, ya queproporciona muchas potentes de edición de guiones y depuración de interfaz para aquellos que lo necesitan. Los usuarios pueden usar C # o VB.NET para depurar o escribir scripts para controlar la programación del proceso de scraping. Por ejemplo, Content Grabber puede integrarse con Visual Studio 2013 para la edición de secuencias de comandos, la depuración y la prueba de unidad más potentes para un rastreador personalizado avanzado y discreto basado en las necesidades particulares de los usuarios.
16. Helium Scraper
Helium Scraper es un software visual de datos web scraping que funciona bastante bien cuando la asociación entre elementos es pequeña. No es codificación, no es configuración. Y los usuarios pueden obtener acceso a plantillas en línea basadas en diversas necesidades de scraping.
Básicamente, podría satisfacer las necesidades de scraping de los usuarios dentro de un nivel elemental.
17. UiPath
UiPath es un software robótico de automatización de procesos para capturar automáticamente una web. Puede capturar automáticamente datos web y de escritorio de la mayoría de las aplicaciones de terceros. Si lo ejecuta en Windows, puede instalar el software de automatización de proceso. Uipath puede extraer tablas y datos basados en patrones en múltiples páginas web.
Uipath proporciona herramientas incorporados para un mayor web scraping. Este método es muy efectivo cuando se trata de interfaces de usuario complejas. Screen Scraping Tool puede manejar elementos de texto individuales, grupos de texto y bloques de texto, como la extracción de datos en formato de tabla.
Además, no se necesita programación para crear agentes web inteligentes, pero el .NET hacker dentro de usted tendrá un control completo sobre los datos.
18. Scrape.it
Scrape.it es un software node.js de web scraping . Es una herramienta de extracción de datos web basada en la nube. Está diseñado para aquellos con habilidades avanzadas de programación, ya que ofrece paquetes públicos y privados para descubrir, reutilizar, actualizar y compartir código con millones de desarrolladores en todo el mundo. Su potente integración lo ayudará a crear un rastreador personalizado según sus necesidades.
19. WebHarvy
WebHarvy es un software de web scraping de apuntar y hacer clic. Está diseñado para no programadores. WebHarvy puede scrape automáticamente Texto, Imágenes, URL y Correos Electrónicos de sitios web, y guardar el contenido raspado en varios formatos. También proporciona un programador incorporado y soporte proxy que permite el rastreo anónimo y evita que el software de web crawler sea bloqueado por servidores web, tiene la opción de acceder a sitios web objetivo a través de servidores proxy o VPN.
Los usuarios pueden guardar los datos extraídos de las páginas web en una variedad de formatos. La versión actual de WebHarvy Web Scraper le permite exportar los datos raspados como un archivo XML, CSV, JSON o TSV. Los usuarios también pueden exportar los datos raspados a una base de datos SQL.
20. Connotate
Connotate es un web scraper automatizado diseñado para la extracción de contenido web a escala empresarial que necesita una solución a escala empresarial. Los usuarios comerciales pueden crear fácilmente agentes de extracción en tan solo unos minutos, sin ninguna programación. Los usuarios pueden crear fácilmente agentes de extracción simplemente apuntando y haciendo clic.
submitted by melisaxinyue to webscraping [link] [comments]


2020.06.09 10:53 melisaxinyue 10 Malentendidos sobre El Web Scraping

1. El web scraping es ilegal
Muchas personas tienen falsas impresiones sobre el web scraping. Es porque hay personas que no respetan el gran trabajo en Internet y usan web scraping herramienta robando el contenido. El web scraping no es ilegal en sí mismo, sin embargo, el problema surge cuando las personas lo usan sin el permiso del propietario del sitio y sin tener en cuenta los Términos de Servicio (Términos de Servicio). Según el informe, el 2% de los ingresos en línea se pueden perder debido al mal uso del contenido a través del raspado web. Aunque el raspado web no tiene una ley clara y términos para abordar su aplicación, está abarcado por las regulaciones legales. Por ejemplo:
2. El web scraping y el web crawling son lo mismo
El web scraping implica la extracción de datos específicos en una página web específica, por ejemplo, extraer datos sobre clientes potenciales de ventas, listados de bienes inmuebles y precios de productos. Por el contrario, el web crawling es lo que hacen los motores de búsqueda. Escanea e indexa todo el sitio web junto con sus enlaces internos. "Crawler" puede navegar por la web sin un objetivo específico.
3. Puedes scrape cualquier sitio web
A menudo que las personas solicitan scraping cosas como direcciones de correo electrónico, publicaciones de Facebook o información de LinkedIn. Según un artículo titulado "¿Es legal el web scraping?" Es importante tener en cuenta las reglas antes de realizar el web scraping:
Una persona puede ser procesada bajo varias leyes. Por ejemplo, uno raspó cierta información confidencial y la vendió a un tercero, ignorando la carta de prohibición enviada por el propietario del sitio. Esta persona puede ser procesada bajo la ley de Trespass a Chattel, Violación de Digital Millennium Copyright Act (DMCA), Violación de la Ley de Computer Fraud and Abuse Act (CFAA) and Misappropriation
No significa que no pueda scrape canales de redes sociales como Twitter, Facebook, Instagram y YouTube. Son amigables con los servicios de scraping que siguen las disposiciones del archivo robots.txt. Para Facebook, debe obtener su permiso por escrito antes de realizar el comportamiento de la recopilación automatizada de datos.
4. Necesitas saber cómo codificar
Una herramienta de web scraping (herramienta de extracción de datos) es muy útil para profesionales no tecnológicos como especialistas en marketing, estadísticos, consultores financieros, inversores de bitcoin, investigadores, periodistas, etc. Octoparse lanzó una característica única: web scraping templates que scrapers preformateados que cubren más de 14 categorías en más de 30 sitios web, incluidos Facebook, Twitter, Amazon, eBay, Instagram y más. Todo lo que tiene que hacer es ingresar las palabras clave/URL en el parámetro sin ninguna configuración de tarea compleja. El web scraping con Python lleva mucho tiempo. Por otro lado, una plantilla de web scraping es eficiente y conveniente para capturar los datos que necesita.
5. Puede usar datos scraped para cualquier cosa
Es perfectamente legal si extrae datos de sitios web para consumo público y los utiliza para análisis. Sin embargo, no es legal si scrape información confidencial con fines de lucro. Por ejemplo, scraping información de contacto privada sin permiso y venderla a un tercero para obtener ganancias es ilegal. Además, reempaquetar contenido raspado como propio sin citar la fuente tampoco es ético. Debe seguir de reglas sobre no enviar spam o cualquier uso fraudulento de datos está prohibido de acuerdo con la ley.
6. Un web scraper es versátil
Tal vez ha experimentado sitios web particulares que cambian su diseño o estructura de vez en cuando. No se frustre cuando se encuentre con sitios web que su scraper no puede leer por segunda vez. Hay muchas razones. No se activa necesariamente al identificarte como un bot sospechoso. También puede ser causado por diferentes ubicaciones geográficas o acceso de la máquina. En estos casos, es normal que un web scraper no pueda analizar el sitio web antes de establecer el ajuste.
7. Puedes scraping web a alta velocidad
Es posible que haya visto anuncios de scraper que dicen cuán rápidos son sus scrapers. Suena bien ya que le dicen que pueden recopilar datos en segundos. Sin embargo, si causas daños a la empresa, serás un delincuente y será procesado. Esto se debe a que una solicitud de datos escalables a una velocidad rápida sobrecargará un servidor web, lo que podría provocar un bloqueo del servidor. En este caso, la persona es responsable por el daño bajo la ley de "trespass to chattels" (Dryer y Stockton 2013). Si no está seguro de si el sitio web es scrapable o no, pregúntele al proveedor de servicios de desguace web. Octoparse es un proveedor de servicios de raspado web responsable que coloca la satisfacción de los clientes en primer lugar. Para Octoparse es crucial ayudar a nuestros clientes a resolver el problema y tener éxito.
8. API y Web scraping son lo mismo
API es como un canal para enviar su solicitud de datos a un servidor web y obtener los datos deseados. API devolverá los datos en formato JSON a través del protocolo HTTP. Por ejemplo, Facebook API, Twitter API, y Instagram API. Sin embargo, no significa que pueda obtener los datos que solicite. El web scraping puede visualizar el proceso ya que le permite interactuar con los sitios web. Octoparse tiene plantillas de web scraping. Es aún más conveniente para los profesionales no tecnológicos extraer datos al completar los parámetros con palabras clave/URL.
9. The scraped data only works for our business after being cleaned and analyzed
Many data integration platforms can help visualize and analyze the data. In comparison, it looks like data scraping doesn’t have a direct impact on business decision making. Web scraping indeed extracts raw data of the webpage that needs to be processed to gain insights like sentiment analysis. However, some raw data can be extremely valuable in the hands of gold miners.
9. Los scraped data solo funcionan para nuestro negocio después de ser limpiados y analizados
Muchas plataformas de integración de datos pueden ayudar a visualizar y analizar los datos. En comparación, parece que el scraping de datos no tiene un impacto directo en la toma de decisiones comerciales. De hecho, el web scraping extrae datos sin procesar de la página web que deben procesarse para obtener información como el análisis de sentimientos. Sin embargo, algunos datos en bruto pueden ser extremadamente valiosos en manos de los mineros de oro.
Con la plantilla de web scraping de Octoparse Google Search para buscar un resultado de búsqueda orgánica, puede extraer información, incluidos los títulos y meta descripciones sobre sus competidores para determinar sus estrategias de SEO; Para las industrias minoristas, el web scraping se puede usar para controlar los precios y la distribución de los productos. Por ejemplo, Amazon puede crawl Flipkart y Walmart en el catálogo "Electrónico" para evaluar el rendimiento de los artículos electrónicos.
10. El web scraping solo puede usarse en negocios
El web scraping se usa ampliamente en varios campos además de la generación de leads, el monitoreo de precios, el seguimiento de precios y el análisis de mercado para empresas. Los estudiantes también pueden aprovechar una plantilla de web scraping de Google Académico para realizar investigaciones de tesis. Los agentes inmobiliarios pueden realizar investigaciones de vivienda y predecir el mercado inmobiliario. Podrá encontrar personas influyentes de Youtube o Twitter para promocionar su marca o su propia agregación de noticias que cubra los únicos temas que desea al scraping los medios de comunicación y los RSS feeds.
submitted by melisaxinyue to webscraping [link] [comments]


2020.06.09 10:46 melisaxinyue Web Scraping: Cómo Comenzó y Qué Sucederá en El Futuro

¿Qué es el web scraping?
El web scraping, también conocido como web harvesting y extracción de datos web, se refiere básicamente a la recopilación de datos de sitios web a través del Hypertext Transfer Protocol (HTTP) o mediante navegadores web.
Tabla de contenidos
¿Cómo funciona el web scraping?
En general, el web scraping implica tres pasos:
https://preview.redd.it/mo1ex5nfku351.png?width=666&format=png&auto=webp&s=508ca7d3f262f17509bc8f768e3201ca5653baa6
¿Cómo comenzó todo?
Aunque para muchas personas, suena como una técnica tan fresca como conceptos como "Big Data" o "machine learning", la historia del web scraping es en realidad mucho más larga. Se remonta a la época en que nació la World Wide Web, o coloquialmente "Internet"
Al principio, Internet era incluso inescrutable. Antes de que se desarrollaran los motores de búsqueda, Internet era solo una colección de sitios de File Transfer Protocol (FTP) en los que los usuarios navegaban para encontrar archivos compartidos específicos. Para encontrar y organizar los datos distribuidos disponibles en Internet, las personas crearon un programa automatizado específico, conocido hoy como el web crawlebot, para buscar todas las páginas en Internet y luego copiar todo el contenido en las bases de datos para su indexación.
Luego, Internet crece y se convierte en el hogar de millones de páginas web que contienen una gran cantidad de datos en múltiples formas, incluidos textos, imágenes, videos y audios. Se convierte en una fuente de datos abierta.
A medida que la fuente de datos se hizo increíblemente rica y fácil de buscar, la gente comienzan a descubrir que la información requerida se puede encontrar fácilmente. Esta información generalmente se encuentra dispersa en muchos sitios web, pero el problema es que cuando desean obtener datos de Internet, no todos los sitios web ofrecen la opción de descargar datos. Copiar y pegar es muy engorroso e ineficiente.
Y ahí es donde entró el web scraping. El web scraping en realidad está impulsado por web bots/crawlers, y sus funciones son las mismas que las utilizadas en los motores de búsqueda. Es decir, buscar y copiar. La única diferencia podría ser la escala. El web scraping se centra en extraer solo datos específicos de ciertos sitios web, mientras que los motores de búsqueda a menudo obtienen la mayoría de los sitios web en Internet.

- ¿Cómo se hace el web scraping?

Técnicamente, la World Wide Web es diferente de Internet. El primero se refiere al espacio de información, mientras que el segundo es la network compuesta por computadoras.
Gracias a Tim Berners-Lee, el inventor de WWW, trajo las siguientes 3 cosas que han sido parte de nuestra vida diaria:
También inventado por Tim Berners-Lee, se llamaba WorldWideWeb (sin espacios), llamado así por el proyecto WWW. Un año después de la aparición de la web, las personas tenían una forma de verla e interactuar con ella.
La web siguió creciendo a una velocidad bastante moderada. Para 1994, el número de servidores HTTP era superior a 200.
Aunque funcionó de la misma manera que lo hacen los robots web hoy en día, solo tenía la intención de medir el tamaño de la web.
Como no había tantos sitios web disponibles en la web, los motores de búsqueda en ese momento solían depender de los administradores de sus sitios web humanos para recopilar y editar los enlaces en un formato particular.
JumpStation trajo un nuevo salto. Es el primer motor de búsqueda WWW que se basa en un robot web.
Desde entonces, la gente comenzó a usar estos web crawlers programáticos para recolectar y organizar Internet. Desde Infoseek, Altavista y Excite, hasta Bing y Google hoy, el núcleo de un robot de motor de búsqueda sigue siendo el mismo:
Como las páginas web están diseñadas para usuarios humanos, y no para la facilidad de uso automatizado, incluso con el desarrollo del bot web, todavía fue difícil para los ingenieros informáticos y los científicos hacer scraping web, y mucho menos personas normales. Por lo tanto, la gente se ha dedicado a hacer que el web scraping esté más disponible.
API significa Interfaz de Programación de Aplicaciones. Es una interfaz que facilita mucho el desarrollo de un programa al proporcionar los bloques de construcción.
En 2000, Salesforce y eBay lanzaron su propia API, con la cual los programadores pudieron acceder y descargar algunos de los datos disponibles al público.
Con comandos simples, Beautiful Soup tiene sentido de la estructura del sitio y ayuda a analizar el contenido desde el contenedor HTML. Se considera la biblioteca más sofisticada y avanzada para el raspado web, y también uno de los enfoques más comunes y populares en la actualidad.
En 2006, Stefan Andresen y su Kapow Software (adquirido por Kofax en 2013) lanzaron la Web Integration Platform version 6.0, algo que ahora se entiende como software visual de web scraping, que permite a los usuarios simplemente resaltar el contenido de una página web y estructurar esos datos en un excel file utilizable o database
Finalmente, hay una manera para que los masivos no programadores hagan web scraping por su cuenta.
Desde entonces, el web scraping está comenzando a llegar a la corriente principal. Ahora, para los no programadores, pueden encontrar fácilmente más de 80 programas de extracción de datos listos para usar que proporcionan procesos visuales.
¿Cómo será el web scraping?
Las crecientes demandas de datos web por parte de las empresas en toda la industria prosperan en el mercado de web scraping, y eso trae nuevos empleos y oportunidades comerciales.
Es una época que es más fácil que cualquier otra que hayamos tenido en la historia. Cualquier persona, empresa u organización puede obtener los datos que desee, siempre que estén disponibles en la web. Gracias al web crawlebot, API, bibliotecas estándar y varios softwares listos para usar, una vez que alguien tiene la voluntad de obtener datos, hay una manera para ellos. O también pueden recurrir a profesionales accesibles y asequibles.
haya Internet, habrá web scraping.
Una forma de evitar las posibles consecuencias legales del web scraping es consultar a los proveedores profesionales de servicios de web scraping. Octoparse se erige como la mejor compañía de web scraping que ofrece scraping servicios y una herramienta de extracción de datos web. Tanto los empresarios individuales como las grandes empresas cosecharán los beneficios de su avanzada tecnología de scraping.
submitted by melisaxinyue to webscraping [link] [comments]


2020.06.03 19:00 leojg Quiero volver a ver montañas Gandalf! - Mochilerismo 101

Ya van un par de buriceps que me preguntan como es esto de viajar como mochilero, con poca cosa. Que todas tus pertenencias se reduzcan a lo que entra en tu mochila y poder viajar a donde tus pies y tu coraje te lleven(?).
Como ahora mismo me encuentro recorriendo los caminos de la patria, en parte porque la situación mundial no me permite salir afuera, me parece un buen momento para contarles un par de tips por si también quieren agarrar una mochila e irse a saciar su sed de aventura
1- A donde vas?
Hay gente que va a Tres Cruces(o cualquier terminal del mundo) y pregunta por el proximo bus a cualqueir lugar. Yo no, yo busco medianamene que hay de interesante en el país o region a donde quiero ir. En el caso de Uruguay para nosotros es fácil, porque tenemos una idea al menos general de que hay en cada departamento y si vale o no la pena visitarlo. De todas formas, capaz que querés visitar Colonia, pero haciendo una busqueda rápida descubris que Colonia no es solo la ciudad vieja sino que todo el departamento tiene lugares interesantes para ver, como las colonias suizas, Carmelo, etc.
Supongamos que sos un ignorante total del país, en ese caso hace una busqueda rápida en google, Que hay para ver en uruguay? Y listo, ahi tenes para buscar. Alternativamente, estos sitios te van a dar algo de info:
https://www.budgetyourtrip.com/uruguay
https://en.wikivoyage.org/wiki/Uruguay
https://reddit.com/uruguay (shocking right?)
Listo, con eso ya debes saber a donde queres ir.
2- Como vas?
Capaz que queres ir a Villa Serrana, en Lavalleja, tremendo pueblito entre los cerros. Bueno, en Tres Curces no te venden un ticket a Villa Serrana.
Podes buscar en sitios como estos:
https://www.rome2rio.com/
https://urubus.com.uy/?lang=es
Ojo, tomar la data de ahi con pinzas, a veces no es 100% confiable.
Pero pero… y si no aparece nada? Bueno, capaz que hay una linea local y no aparece en esos sitios porque no tienen ni web(en el caso de Villa Serrana es así, sale 2 veces de Minas, si no me equivoco)
Y si no hay nada, bueno el autostop es bastante fácil en uruguay, segun esto:
https://hitchwiki.org/en/Uruguay
3- Que llevas?
Ahora si, llegamos a la mochila, una pequeña intro, por si no tienen nada de idea, las mochilas miden su capacidad en litros, una mochila tipo de escuela anda en 20 o 30 litros. Una mochila para trekking puede llegar hasta como 80 o 90 litros.
Para mochilear no necesitas 90 litros, en verano te diría que con 40 andas bien y en invierno con 50 o 60, según la duración del viaje, yo ahora ando con una de 50 y tengo otra de 66 litros para viajes más largos o a lugares frios.
Lo que vas a llevar depende de vos, pero mas que 1 par de championes(2 capaz, si queres hacer mucho trekking, lleva unos de trekking), 1 de ojotas, 3 busos, 1 buso grueso, 1 campera y 1 o 2 pantalones no precisas, despues si, ropa interior como para una semana, por las dudas.
Hay una regla que dice, pone todo lo que crees que vas a necesitar ordenado en el piso, o arriba de una cama y despues reducilo a la mitad. O sea, si pusiste 4 busos, saca 2.
Generalmente usamos mucha menos ropa de la que pensamos, yo al principio iba con 6 busos, 3 pantalones, etc, al pedo, podes viajar con mucho menos.
Ah y como bien dice la guia del autoestopista espacial, una toalla y una frazadita por las dudas.
Yo laburo remoto, asique también llevo una laptop, teléfonos y una cantidad exagerada de cables, pero me parece que no es necesario.
4- Ya está?... Si ya está.
5- Profit
Bueno, no hay mucho más misterio que eso. Sali, viaja, celebrá como en el interior te podes clavar una milanga mas grande que el plato por mucho menos de lo que te sale en Montevideo.
Note: Lo trate de hacer medio relacionado a Uruguay para que no me lo bajen. Espero que no me lo bajen.
Se puede completar mas, si se puede, hay miles de recursos, blogs, canales de youtube, comunidaes, etc sobre viajes, minimalismo y toda la bola.
submitted by leojg to uruguay [link] [comments]


2020.05.21 11:19 melisaxinyue Web Scraping: Cómo obtener Coronavirus (COVID-19) Datos

Web Scraping: Cómo obtener Coronavirus (COVID-19) Datos
Desde el estallido del nuevo coronavirus contagioso en el aire, la vida de millones de personas se ha visto afectada y las noticias relevantes han explotado en todas las plataformas.
En esta situación, pensamos que sería necesario recopilar datos en tiempo real de fuentes oficiales y no oficiales para que el público pueda tener una comprensión imparcial de este brote de epidemia con fuentes de datos transparentes.
https://youtu.be/L2AxYDuMbk4
Para obtener datos de estas fuentes, puede aprovechar las herramientas de web scraping como Octoparse, ya que hemos creado web scraping templates para extraer datos sobre el informe del gobierno de China. Esto puede mantenerlo actualizado con la información más reciente. Ahora echemos un vistazo a cómo usar la plantilla para extraer datos en vivo.
Paso 1: Inicie Octoparse en su computadora y cree una tarea de scraping haciendo clic en "Task Template".

https://preview.redd.it/uocttfbt43051.png?width=497&format=png&auto=webp&s=7f4395286f771c16c2d11ac9a02a216b6d019e05
Aviso: Hay un número de "recetas" de scraping que van desde sitios web de comercio electrónico hasta canales de redes sociales. Estos son rastreadores preformateados que se pueden usar para extraer datos de sitios web de destino directamente. Puede consultar este artículo para tener una mejor idea de qué es una plantilla de web scraping.
Paso 2: En la categoría "Tiempo Real", elija "comisión nacional de salud".

https://preview.redd.it/2pcsnojv43051.png?width=473&format=png&auto=webp&s=45c50b17a129ab2b28735a83265b5579908bab12
Verás dos plantillas. Una es para extraer noticias y anuncios del gobierno. El otro es el website de noticias Tencent, que está directamente conectado con la Comisión de Salud central y local de China. Hasta ahora, este es el método más rápido para obtener datos en vivo, incluidos los casos confirmados, la recuperación, el número de muertos y la tasa de mortalidad en cada ciudad de China.

https://preview.redd.it/25ots7gw43051.png?width=520&format=png&auto=webp&s=e5be5bbcb10a4a6417027b58b80818a0524def71
Paso 3: Haga clic en "datos en tiempo real 2019-nCov", ya que queremos recopilar datos en vivo.
No hay necesidad de configuración. Simplemente inicie la extracción y Octoparse automáticamente raspará los datos a gusto. Puede exportar los datos a muchos formatos, como Excel, JSON, CSV, y a su propia base de datos a través de API. Así es como se ve la salida de datos en Excel.

https://preview.redd.it/q4np4e3x43051.png?width=505&format=png&auto=webp&s=f04a920502615385af40276b7cbc107b3f9f2ad9
También puede extraer información en tiempo real en los canales de redes sociales. Hay plantillas que cubren plataformas populares como Facebook, Twitter, Instagram y YouTube.
Por ejemplo, si desea extraer los últimos tweets sobre el virus y ver cómo reaccionan las personas, puede aprovechar la plantilla de "últimos tweets". Está diseñado para recopilar los últimos tweets que contienen la palabra clave de búsqueda que ingresó. Le permite extraer web page URL, tweet URL, los controladores, posts, etc.
https://preview.redd.it/oleu5aox43051.png?width=512&format=png&auto=webp&s=c9f089ff8027b552c92696fc33773b2dfd953b84
Ahora ejecutemos esta plantilla.
Paso 1: Abra Twitter, escriba "coronavirus" y haga clic en la pestaña "más reciente".Copie la URL y péguela en el primer parámetro.

https://preview.redd.it/yim7xhqy43051.png?width=487&format=png&auto=webp&s=aef67b1a1b964e1a29dfbb6defc692b63ab1f8ad
Paso 2: Ingrese un número en el segundo parámetro.
Twitter aplica una técnica de desplazamiento infinito, lo que significa que tenemos que establecer "scrolling number" hasta que obtengamos el número deseado de publicaciones. Puede establecer cualquier número que desee de 1 a 10,000. Esta idea es para cargar la página completamente. Por ejemplo, si ingresa el número 10, el bot se desplazará 10 veces.
Paso 3: Ejecute el scraper haciendo clic en "save and run" y obtendrá los resultados al instante.
https://preview.redd.it/s86or0iz43051.png?width=492&format=png&auto=webp&s=39a3d63f3a220752c2fa15aa599550ed452c32ec
En este video hemos cubierto cómo usar plantillas de web scraping para recopilar datos en tiempo real sobre el coronavirus. Si también desea construir su propio scraper para extraer artículos de portales de noticias como Wall Street Journal, New York Times y Reuters, puede ver este video.
submitted by melisaxinyue to CoronavirusRecession [link] [comments]


2020.05.21 11:04 melisaxinyue 3 Web Scraping Aplicaciones para Ganar Dinero

3 Web Scraping Aplicaciones para Ganar Dinero
¿Puedes creer que el 70% del tráfico de Internet fue creado por arañas *? ¡Es sorprendentemente cierto! Hay muchas arañas, web crawlers o buscadores de robots ocupados con sus trabajos en Internet. Simulan el comportamiento humano, recorren sitios web, hacen clic botones, comprobación de datos y recuperación de información.

https://preview.redd.it/ms772nqh23051.png?width=550&format=png&auto=webp&s=ff7073223bc3d340bbd7b5be3daf0886d56204a6
Picture from Google
Con tanto tráfico generado, deben haber logrado algo magnífico. Algunos de ellos pueden sonarle familiares, como el monitoreo de precios en negocios de comercio electrónico, el monitoreo de redes sociales en relaciones públicas o la adquisición de datos de investigación para estudios académicos. Aquí, nos gustaría profundizar en las 3 aplicaciones de raspado web que rara vez se conocen pero que son sorprendentemente rentables.
1. Transportation
Las plataformas Budget Airline son muy populares entre los web scrapers debido a la promoción impredecible de boletos baratos.
La intención original de Airline’s es ofrecer boletos baratos al azar para atraer turistas*, pero los revendedores encontraron una manera de obtener ganancias de esto. Los geek scalper usan web crawlers para actualizar continuamente el sitio web de la aerolínea. Una vez que haya un boleto barato disponible, el crawler lo reservará boletos.

https://preview.redd.it/ohvxqkfl23051.png?width=251&format=png&auto=webp&s=bcac2bc2ee9752a9a6ad0ebceeaeeb98cc557faf
Imagen de Giphy
AirAsia, por ejemplo, solo mantiene la reserva durante una hora y si el pago no se realiza para entonces, el boleto se envía de vuelta al grupo de boletos y está listo para vender. Los revendedores volverán a comprar el boleto en el milisegundo después de que el boleto regrese a la piscina, y así sucesivamente. Solo hasta que solicite el boleto a un revendedor, los revendedores utilizarán el programa para abandonar el boleto en el sistema AirAsia y en 0.00001 segundos después, lo reservarán con su nombre.
No me parece un trabajo fácil. Tal vez la comisión de agencia intermedia es bastante justa.
2. E-Commerce
Debe haber muchos sitios de comparación de precios y Sitio web de devolución de efectivo en los favoritos de un comprador inteligente. No importa cuáles sean sus nombres, "plataformas de comparación de precios", "sitio web agregado de comercio electrónico" o "sitios web de cupones", las ideas son las mismas: ganar dinero ahorrando su dinero.

Scraping los precios y las imágenes de los websites de comercio electrónico y los muestran en sus propios sitios web.
Los magnates del comercio electrónico como Amazon saben que es difícil revertir las tendencias del código abierto *. Entonces comienzan un negocio para vender su API con una larga lista de precios. ¡Parece que los sitios web de comparación de precios necesitan hacer todos los trabajos, escribir códigos para scrape, proporcionar un canal de ventas y pagar las facturas!
https://preview.redd.it/dsh8yo6n23051.png?width=377&format=png&auto=webp&s=1efdff23b184fe5cbef21c6a0f931eaf5d23ab26
Imagen de Giphy

No tan rapido. Déjame decirte cómo estas plataformas de comercio electrónico agregadas obtienen sus ganancias:
  • Supongamos que hay una plataforma que agrega varias tiendas que venden Okamoto. Cuando las personas buscan el producto, pueden decidir qué tienda ocupa el primer lugar y cuál es el último. En resumen, la tienda que paga más dinero a la plataforma se clasifica en la parte superior.
https://preview.redd.it/2y13tioo23051.png?width=756&format=png&auto=webp&s=cbe6c6a02aef01df6cd55dbac64ade135a434919
Imagen de Comparee
  • Si el precio de oferta de clasificación es tan dolorosa (@Google AdWords), también puede tomar la salida fácil: comprar anuncios en la página web. Cada vez que un visitante hace clic su tienda en línera, el sitio web gana dinero - por cobrar por los clics.
  • El sitio web también puede actuar como agente para ganar comisiones. Es bastante fácil de entender, ya que ayudan a las tiendas a vender productos. Basado en la creencia de "cuanto más, mejor", allí tenemos sitios web de devolución de efectivo que nacen.
En resumen, lo están haciendo bastante bien.
3. Seguridad social
Para dos compañías que aceptan compartir bases de datos a través de API, aún podrían necesitar el raspado web para convertir los datos de las páginas web en informes de datos estructurales.
Tomemos los tres grandes como ejemplo. Equifax, Experian y TransUnion, que poseen los archivos de crédito de 170 millones de adultos estadounidenses y venden más de 600 millones de informes de crédito cada año, generando más de $ 10 mil millones en ingresos*.
https://preview.redd.it/e4aiktsp23051.png?width=400&format=png&auto=webp&s=e555a57483f2a44e35f7579fa98e5b55d5218856
Imagen de Giphy
"En realidad, es un modelo de negocio bastante simple. Recopilan la mayor cantidad de información sobre usted de los prestamistas, la agregan y se la devuelven", dijo Brett Horn, analista de la industria de Morningstar *.
Reciben sus datos de comportamiento personal de sus bancos, empleadores, tribunales locales, centros comerciales e incluso una estación de servicio. Con tantos informes para analizar, el web-scraping es una gran ayuda para organizar los datos. Pueden convertir las páginas web en informes de datos estructurales.
Hay muchas formas de scrape desde los sitios web. Si desea scrape datos a escala de muchos sitios web, una herramienta de raspado web es útil. Aquí hay una lista de las 10 mejores herramientas de web scraping como preferencia.
Web scraping is an incredible way to collect data for your business. If you are looking for a reliable web scraping service to scrape data from the web, you can try to start it with Octoparse.
submitted by melisaxinyue to webscraping [link] [comments]


2020.03.16 17:40 juliosanoja 3 Productos de publicidad digital que usan grandes bases de datos

3 Productos de publicidad digital que usan grandes bases de datos
Google Ads Search, Google Ads Display, Facebook Ads
Ya se ha establecido un oligopolio de publicidad digital formado por Google y Facebook, que ofrece a las empresas la oportunidad de comunicarse con los 4.000 millones de usuarios de Internet de manera efectiva, eficiente y satisfactoria, gracias a la publicidad de grandes bases de datos (big data advertising).
Las ventas de publicidad globales en medios tradicionales y digitales, en el año 2015, fueron de $ 600 mil millones, y en los medios digitales fueron $ 150 mil millones. La publicidad en medios digitales representa el 25% de la publicidad mundial. Las ventas de Google en el año 2015 fueron $ 75 mil millones, y las ventas de Facebook en el mismo año fueron $ 18 mil millones. Más del 95% de los ingresos de Google y Facebook se obtienen con la venta de sus productos de publicidad, Google Ads y Facebook Ads. Si hacemos los cálculos, descubrimos que Google y Facebook juntos tienen más del 60% del negocio de publicidad digital, y esto se debe a que ambas empresas venden publicidad que usa grandes bases de datos.
Google Ads Search
Google anunció en el 2016 que cada año se realizan trillones de búsquedas en Google. Las personas van a Google para buscar cualquier cosa que necesiten. Como dice Google, las personas buscan en Google si quieren IR, SABER, HACER o COMPRAR, y esto es lo que Google llama el Momento Cero de la Verdad (Zero Moment of Truth - ZMOT). Cuando una persona busca algún producto o servicio y el enlace al sitio web de su empresa aparece en la primera página de los resultados de búsqueda de Google, entonces su empresa tiene la oportunidad de satisfacer las necesidades de esa persona, y usted obtiene una oportunidad de negocio.
Hay dos formas de estar en la primera página de los resultados de búsqueda de Google, de forma orgánica haciendo campañas de artículos para optimización de motores de búsqueda (SEO), y pagando publicidad de Google Ads Search. Las empresas tienen la oportunidad de hacer una campaña de publicidad en los resultados de búsqueda de Google, usando la publicidad de Google Ads Search, de modo que cuando las personas buscan sus productos o servicios, los anuncios de las empresas aparecen en la primera página de los resultados de búsqueda de Google. Esta campaña se puede configurar por área geográfica y por palabras claves. Las empresas pagan a Google si los usuarios hacen clic en el anuncio; de lo contrario, las empresas no pagan a Google por la publicación del aviso de publicidad. Google llama a esta publicidad pago por clic, o pay per clic en inglés (Pay Per Clic - PPC). Google no cobra a las empresas por publicar el anuncio, solo cobra si el usuario hace clic en el anuncio. El costo de un clic varía y depende del país y la industria, en un rango entre $ 1 y $ 1,000 por clic.
Google Ads Display
Google conoce la siguiente información para cada uno de los 4.000 millones de usuarios de Internet: ubicación geográfica, edad, género, intereses. Google también conoce la siguiente información de todo el contenido de Internet: temas, palabras claves, direcciones de sitios web, direcciones de páginas web. Con esta información disponible, Google puede vender publicidad de grandes bases de datos. Una empresa puede configurar una campaña de Google Ads Display para mostrar un anuncio de publicidad en formato de texto, imagen o video, al usuario de Internet, por donde navegue, dependiendo de la configuración de la campaña y la segmentación de las variables de las grandes bases de datos de Google Ads Display. Por ejemplo, una empresa puede mostrar un anuncio en la primera página del New York Times o del Washington Post, cuando las personas interesadas en sus productos o servicios navegan por la primera página de estos periódicos. Al igual que en Google Ads Search, esta publicidad también es publicidad de pago por clic, por lo tanto, la empresa solo paga a Google si el usuario hace clic en el anuncio. Google no cobra a la empresa por publicar el anuncio.
Facebook Ads
Facebook conoce la siguiente información de cada uno de los 1.500 millones de usuarios de Facebook e Instagram: ubicación geográfica, edad, género, intereses. Una empresa puede configurar una campaña de publicidad en Facebook e Instagram para dirigirse a cualquier audiencia interesada en sus productos o servicios. Estos anuncios también pueden ser anuncios de texto, imagen o video, y también son anuncios de pago por clic como lo son los anuncios de Google Ads. La publicidad de Facebook e Instagram también es publicidad de grandes bases de datos, porque la empresa puede dirigir el anuncio a una audiencia segmentada de acuerdo con las variables de la base de datos de los usuarios de Facebook e Instagram.
Google tiene una gran base de datos con 4.000 millones de usuarios de Internet y conoce su ubicación geográfica, edad, género, e intereses. Facebook tiene una gran base de datos con 1.500 millones de usuarios de Facebook y conoce su ubicación geográfica, edad, género, e intereses. Estas 2 grandes bases de datos se pueden usar para que las empresas se comuniquen con sus clientes, prospectos y cualquier otra audiencia de manera eficiente, efectiva y satisfactoria. No hay otras bases de datos de usuarios de Internet como estas dos, hasta ahora. Bienvenido a la publicidad de grandes bases de datos para empresas (big data advertising en inglés).
Este artículo fue escrito por Julio R. Sanoja, y es una traducción del artículo original en inglés del mismo autor, que usted puede leer en el siguiente enlace:
https://www.msalesleads.com/3-big-data-advertising-products-for-small-business/
Sobre el autor:
Experiencia:
Julio es un consultor de mercadeo digital y desarrollo de negocios. Ingeniero ambiental de la Universidad de Michigan en Ann Arbor, graduación de 1983, e ingeniero químico de la Universidad Simón Bolívar en Caracas, graduación de 1980. Ha diseñado y desarrollado estratégicamente proyectos y campañas digitales desde el año 2002, con más de 170 proyectos y campañas ejecutadas.
Conferencista, capacitador y autor en los temas de emprendimiento, mercadeo digital, publicidad digital, Google y optimización de motores de búsqueda (SEO). Con 40 años de experiencia en emprendimiento, mercadeo, ventas y desarrollo de negocios. Usted puede ver la biografía en el siguiente enlace en LinkedIn: https://www.linkedin.com/in/juliosanojarial/
Autoridad:
Julio ha escrito y publicado más de 280 artículos sobre Google, SEO, mercadeo digital y publicidad digital, en los idiomas inglés y español. Usted puede leer los artículos en el siguiente enlace: https://www.msalesleads.com/blog/
Nuestra agencia digital MSalesLeads ha sido destacada en Expertise, Upcity, Clutch, CV Magazine y Design Rush como una agencias digital con experiencia.
Nuestros artículos han sido destacados en Medium.
Hemos sido entrevistados en Voyage Mia.
Hemos obtenidos snippets destacados en los resultados de las búsquedas en Google.
Credibilidad:
Ayudamos a las empresas y los negocios de Venezuela, Latinoamérica y Estados Unidos a crecer en los medios digitales. Posicionamos sus marcas, productos y servicios en Internet. Los ayudamos a obtener prospectos calificados y nuevos clientes en línea. Hemos diseñado y ejecutado más de 170 proyectos y campañas digitales desde el año 2002.
Me pueden escribir a [[email protected]](mailto:[email protected]) si necesitan nuestros servicios.
Hemos realizado proyectos y campañas para marcas globales como Exxon, Dow Chemical, Gulf Oil, Harbison Walker, Cambridge International Consulting, IMG Academy, Pfizer, AstraZeneca, Sandoz, Mercedes Benz, Laboratorios Farma, Banco Mercantil, Banco Exterior, Clínica El Avila, Clínica Urológico, Hospital de Clínicas Caracas. También hemos ejecutado proyectos y campañas digitales para pequeñas y medianas empresas en Venezuela, Latinoamérica y Estados Unidos.
Pueden leer nuestros casos de estudio en el siguiente enlace:
https://www.msalesleads.com/category/case-studies/
Pueden leer las recomendaciones y testimonios personales en el siguiente enlace en LinkedIn: https://www.linkedin.com/in/juliosanojarial/
Pueden leer los testimonies de la agencia en el perfil de Google My Business de nuestra agencia MSalesLeads.

https://preview.redd.it/r41wsi4bc2n41.jpg?width=750&format=pjpg&auto=webp&s=8f7cce4cd790748c393e2673571ce4e53753d76d
submitted by juliosanoja to B2BSmallBusiness [link] [comments]


2020.02.10 09:40 melisaxinyue Los 5 Mejores Rastreadores Web (crawlers) de Redes Sociales para 2020

Los 5 Mejores Rastreadores Web (crawlers) de Redes Sociales para 2020

Los 5 mejores rastreadors de redes sociales en el mercado

1. Octoparse


https://preview.redd.it/fmkbjh6y52g41.png?width=1799&format=png&auto=webp&s=cf3f9430a9edd4ec011c5e8a109a1fc5f3cdf365
Como una de las mejores herramientas automáticas gratuitas de raspado de páginas web en el mercado, Octoparse se desarrolló para los no codificadores a fin de acomodar los complicados trabajos de scrape de páginas web.
La versión actual 7 proporciona una interfaz intuitiva de hacer clic y admite el manejo de desplazamiento infinito, autenticación de inicio de sesión, entrada de texto (para scrape resultados de búsqueda), así como la selección de menús desplegables. Los datos raspado se pueden exportar como Excel, JSON, HTML o a bases de datos. Si desea crear un raspador dinámico para exraer datos de sitios web dinámicos en tiempo real, Octoparse Cloud Extraction (plan pagado) funciona bien para obtener fuentes de datos dinámicos, ya que admite el programa de extracción tan frecuente como cada 1 minuto.
Para extraer datos de redes sociales, Octoparse ya publicó muchos tutoriales elaborados, como scraping tweets de Twitter y extraer publicaciones de Instagram. Además, Octoparse ofrece un servicio de recopilación de datos que entrega los datos directamente a su biblioteca de S3. Si tiene poco tiempo, puede ser una buena alternativa a considerar.

  1. Dexi.io
https://preview.redd.it/hee1ef8362g41.png?width=1820&format=png&auto=webp&s=ed0f5f647fc4bc101aa995c16d6d54f3b44eb878
Como una aplicación basada en la web, Dexi.io es otra herramienta intuitiva de automatización de extracción para fines comerciales con un precio inicial de $ 119/mes. Dexi.io admite la creación de tres tipos de robots: extractor, crawler, Pipes.
Dexi.io requiere algunas habilidades de programación para dominar, Pero puede integrar servicios de terceros para resolver el problema del captcha, almacenamiento en la nube, análisis de texto (integración del servicio MonkeyLearn) e incluso con AWS, Google Drive, Google Sheets ...
El Plugin (plan pagado) también es una característica revolucionaria de Dexi.io y la cantidad de Plugin sigue creciendo. A través de Plugin, puede desbloquear más funciones disponibles en Extractor y Pipes.

3. OutWit Hub

https://preview.redd.it/iskwkyn462g41.png?width=1868&format=png&auto=webp&s=674f5ec8d490e4e6a0942ee205040599553f88ac
A diferencia de Octoparse y Dexi.io, Outwit Hub ofrece una interfaz gráfica de usuario simplista, así como funciones sofisticadas de raspado y reconocimiento de estructura de datos. Outwit Hub comenzó como un plugin de Firefox y más tarde se convirtió en una aplicación descargable.
Sin necesidad de conocimientos previos de programación, OutWit Hub puede extraer y exportar enlaces, direcciones de correo electrónico, noticias RSS y tablas de datos a bases de datos Excel, CSV, HTML o SQL.
Outwit Hub tiene características sobresalientes de "Fast Scrape", que borra rápidamente los datos de una lista de URL que ingresas. Sin embargo, para los principiantes,es posible que deba leer algunos tutoriales básicos y documentación debido a la falta de aplicaciones de hace-clic-interface.

4. Scrapinghub

https://preview.redd.it/wddx31v562g41.png?width=1678&format=png&auto=webp&s=e56d43b3d172a0d6a2118ab13addd938c9a8e873
Scrapinghub es una plataforma de web scraping basada en la nube que le permite escalar sus rastreadores y ofrece un descargador inteligente para evitar contramedidas de bot, servicios de web scraping llave en mano y conjuntos de datos listos para usar.
La aplicación consta de 4 excelentes herramientas: Scrapy Cloud para implementar y ejecutar rastreadores web basados en Python; Portia es un software de código abierto para extraer datos sin codificación; Splash también es una herramienta de representación de JavaScript de código abierto para extraer datos de páginas web que usan JavaScript; Crawlera es una herramienta para evitar ser bloqueado por sitios web, por rastreadores desde múltiples ubicaciones e IP.
En lugar de proporcionar una suite completa, Scrapehub es una plataforma de web scraping bastante compleja y poderosa en el mercado, cada herramienta proporcionada por Scrapehub cuesta dinero por separado.

5. Parsehub

https://preview.redd.it/3o1g0s9762g41.png?width=1920&format=png&auto=webp&s=9c7502d6e8c485a58ef1a5987d86fde4c7d2e916
Parsehub es otro scraper de escritorio sin codificación en el mercado, compatible con Windows, Mac OS X y Linux. Ofrece una interfaz gráfica para seleccionar y extraer los datos de las páginas JavaScript y AJAX. Los datos se pueden extraer de comentarios anidados, mapas, imágenes, calendarios e incluso ventanas emergentes.
Además, Parsehub también tiene una extensión basada en navegador para iniciar su tarea de raspado instantáneamente. Los datos se pueden exportar como Excel, JSON o mediante API.
Lo controvertido de Parsehub tiene que ver con su precio. La versión paga de Parsehub comienza en $149 por mes, que es más alta que la mayoría de los productos de raspado en el mercado, es decir, el plan estándar de Octoparse solo cuesta $89 por mes por páginas ilimitadas por rastreo. Hay un plan gratuito, pero lamentablemente se limita a raspar 200 páginas y 5 trabajos de raspado.

Conclusión
Además de lo que pueden hacer las herramientas automáticas de web scraping, ahora muchos canales de redes sociales ahora ofrecen API pagas a usuarios, académicos, investigadores y organizaciones especiales como Thomson Reuters y Bloomberg en servicios de noticias, Twitter y Facebook en redes sociales.
Con el desarrollo creciente y próspero de la economía en línea, las redes sociales abren muchas oportunidades nuevas para que su negocio se destaque en su campo, al escuchar mejor a sus clientes y relacionarse con sus clientes actuales y potenciales de formas completamente nuevas.
submitted by melisaxinyue to u/melisaxinyue [link] [comments]


2019.07.21 21:43 saludybelleza Cómo medir el pene: técnicas médicas comprobadas.

Como medir el pene: técnicas médicas comprobadas.

Como medir el pene

Te has preguntado alguna vez si existe un método acerca de como medir el pene?
La dimensión del miembro sexual masculino ha sido siempre un motivo de preocupación entre los hombres alrededor del mundo. Aprende como medir el pene ya mismo y quítate las dudas!
hoy en dia se cree cree que mayor tamaño de pene equivale a mayor placer sexual.
Sin embargo, la longitud y el grosor del pene no han sido apreciados de la misma manera en la historia de la humanidad.
En la antigua Grecia, se apreciaba más a hombres con penes pequeños debido a que se creía que poseían mayor capacidad intelectual, creativa y artística.
Por el contrario, a los brutos, torpes o inferiores física y mentalmentte se les representaba con enormes falos desproporcionados anatómicamente.
En los tiempos modernos, se instauró el pensamiento global que la satisfacción sexual tiene una relación directamente proporcional con el tamaño de los órganos sexuales.
Se utiliza el término “órganos sexuales” ya que no solo importa el tamaño del pene del hombre, sino también los pechos, los glúteos y vulva en las mujeres.

Mientras más grande, mejor. ¿Cuán cierto es esto?

La mayoría de los estudios clínicos realizados no han encontrado una relación directa entre las dimensiones del miembro masculino y el orgasmo o placer sexual en ambos miembros de la pareja.
De hecho, algunos reportes confirman que muchas mujeres encuentran dolorosas las relaciones sexuales con hombres con penes muy grandes.
Sin embargo esto no modifica las creencias de que lo ideal es tener un gran pene, pero ¿realmente se sabe si un pene tiene el tamaño adecuado? ¿Cómo podemos medir las verdaderas dimensiones del falo?
El surgimiento del internet y las redes sociales nos han proporcionado a la comunidad en general una fuente ilimitada de información acerca de cualquier tópico, sobre todo en temas sexuales.
Lamentablemente, el soporte científico en la gran mayoría de estas publicaciones es nulo. Son muy pocos los blogs, artículos o vídeos que obtienen sus datos de investigaciones sensatas, provenientes de boletines indexados o de libros serios.
Esa realidad es la que vamos a cambiar en tamañodelpene.com
Al finaldel artículo podrán leer referencias concretas, obtenidas a través de pruebas clínicas formales y extraídas de las más reconocidas revistas de sexualidad a nivel mundial.

¿Cómo medir el pene?

Esta una pregunta que raya en lo polémico cuenta con absoluta seriedad.
Desde el punto de vista urológico, el tamaño del pene es un elemento clínico fundamental en la evaluación total de un paciente, tanto pediátrico como adulto.
Existen técnicas descritas para medir el pene desde los primeros días de vida hasta la adultez.
Si bien medir el tamaño del pene no genera demasiado interés para el adulto, el procedimiento de medir el pene en bebes y niños aporta mucha información acerca de la salud de los mismos y permite hacer diagnósticos precoces de cualquier anormalidad.

Toma de medida del amaño del pene dentro del útero materno

De hecho, Perlitz Yuri y colaboradores (Prenatal Diagnosis, 2011) realizaron un estudio en el cual medían el tamaño del pene dentro del útero materno.
Dicha medición se llevaba a cabo a través de una ecografía materna transvaginal realizada entre las semanas 14 y 35 de la gestación, utilizando como referencias el borde proximal de los cuerpos cavernosos y la punta del glande.
El estudio concluyó que estas medidas pueden ayudar en el diagnóstico precoz de malformaciones genitales, incluyendo el micropene (link a articulo interno: que es un micropene?) o escaso desarrollo dimensional, pudiendo así establecerse el tratamiento hormonal temprano y evitar futuras complicaciones. (1)

Medida del tamaño del pene en individuos ya nacidos

Ahora bien, cuando se desea medir el tamaño del pene en individuos ya nacidos, se describen algunas técnicas para ello.
Tomova Analia y colaboradores (Arch Pediatr Adolesc Med. 2010) publicaron un enorme estudio llevado a cabo en más de 6000 niños y adolescentes de Bulgaria.
En el estudio describen el desarrollo de los genitales externos en dichos grupos de la misma edad.
Para ello, además de medir los parámetros antropométricos clásicos como la talla y el peso, se midió el tamaño del pene y el volumen testicular.
La longitud del pene fue medida en estado de flacidez utilizando una cinta métrica rígida desde la unión de la piel entre el pene y el pubis hasta la punta del glande, excluyendo el tejido redundante del prepucio.
Es importante destacar que esta medida se realiza ejerciendo la máxima extensión no dolorosa posible del órgano sexual.
La circunferencia del pene se midió en la base del mismo con una cinta métrica flexible.
El volumen de los testículos se calculó a través de un orquidómetro de Parder. (2)
Esta técnica de medida parece ser la más aceptada en el mundo científico.
Gabrich Pedro y colaboradores ya lo habían descrito en su estudio sobre niños y adolescentes de Brasil (Jornal de Pediatria, 2007), en el cual utilizaron una regla rígida graduada en milímetros para medir la longitud del pene y un paquímetro para el diámetro.
Al igual que en el estudio de Tomova, la longitud del pene se midió en estado de flacidez con la máxima tracción posible sin causar dolor.
En cambio, la circunferencia se midió en la mitad del pene y no en la base. (3)
También se describen en este estudio varias mediciones de la longitud, las cuales son de suma importancia en los resultados finales, especialmente cuando se extrapolan al adulto.
Son cuatro las medidas que se analizaron, a saber:
Longitud flácida aparente (LFA o AFL): desde la unión de la piel del pene con la del pubis hasta la punta del pene.
Longitud flácida real (LFR o RFL): desde la unión de la piel del pene con la del pubis, deprimiendo la grasa local, hasta el extremo final del glande.
Longitud flácida aparente con máxima extensión (LFA max o AFL max): Desde la unión de la piel del pene con la del pubis hasta la punta del pene, ejerciendo la mayor extensión posible del mismo sin causar dolor.
Longitud flácida real con máxima extensión (LFR max o RFL max): Desde la unión de la piel del pene con la del pubis, deprimiendo la grasa local, hasta el extremo distal del glande, ejerciendo la mayor extensión posible del órgano sexual sin causar dolor.
Hasta el momento hemos descrito las técnicas de medición de las dimensiones del pene en estado de flacidez.
Esta medida es muy importante porque sirve como un buen predictor para determinar el tamaño final en estado de erección.
De hecho, Veale David y colaboradores (BJU Int, 2015) publicaron un ensayo en el cual desarrollan nomogramas amplios relacionando la longitud y la circunferencia del pene, tanto en flacidez como en erección, después de analizar a más de 15000 hombres británicos.
Las conclusiones de dicho estudio reportan que existe una correlación consistente, aunque débil, entre la longitud del pene flácido estirado y la longitud del pene en plena erección. (4)
Ya algunos años atrás, Chen J. y su equipo (International Journal of Impotence Research, 2000) fijaron la relación entre el tamaño del pene en flacidez y en erección, estableciendo pautas sobre como medir el pene según el siguiente esquema.
Se acostó al paciente en una camilla ubicada en un cuarto privado. Una vez alcanzada la máxima erección se utilizó una regla calibrada para medir la longitud y un cáliper para medir la circunferencia.
La longitud se midió dorsalmente (por donde transcurre la vena central del pene) apoyando la regla en el hueso del pubis, alcanzando el punto del meato uretral.
Como en todos los casos anteriores, se aplicó una extensión gentil del pene tomándolo por el glande hasta que el paciente refería cierta molestia. (5)
Uno de los estudios más recientes e interesantes acerca de las técnicas sobre como medir el pene lo llevo a cabo Davoudzadeh y colaboradores (Sexual Medicine Reviews, 2018), quienes no solo revisaron mucha de la literatura disponible al respecto, sino que realizaron sus propias mediciones.
El método de medición fue muy parecido al realizado en los ensayos previos, la diferencia más importante radica en que las medidas de longitud y circunferencia se llevaron a cabo con una cinta flexible en vez de una regla rígida calibrada. (6)
Podemos ver que existe una cantidad interesante de trabajos de investigación en los que se realizan mediciones del pene.
Ahora bien, ¿es posible realizar una adecuada medición del pene en casa?
Son pocos los hombres que están dispuestos a visitar al urólogo o cualquier otro médico para que le tomen las medidas a su miembro viril.
Es por ello que muchos hombre desean aprender cómo medir el tamaño del pene en la comodidad de sus hogares.

¿Qué dice la ciencia al respecto?

Herbenick D. y su equipo de trabajo (J Sex Med, 2014) publicaron un estudio de 1661 hombres americanos sexualmente activos quienes se midieron personalmente sus penes en plena erección, sin haber recibido entrenamiento previo para ello.
La idea inicial del ensayo era determinar la talla adecuada de preservativos que estos hombres necesitarían, aunque la data se aprovechó para evaluar las diferentes técnicas de medición del pene.
Los investigadores concluyeron en que las dimensiones reportadas eran consistentes con otras realizadas en ambientes controlados por personal calificado.
El más interesante de los resultados fue que la manera de alcanzar la erección en casa no es igual a la utilizada en un laboratorio y es probable que esto afecte las dimensiones finales del pene.
Es lógico si pensamos que la excitación lograda en casa, utilizando cualquier método al alcance y sin presiones externas, debe ser más eficiente para lograr una erección enérgica que la obtenida en un sitio de experimentación sabiéndose observado y controlado. (7)
Otro interesante estudio realizado en la comunidad homosexual y bisexual de los Estados Unidos se basó en mediciones realizadas por los propios participantes.
Grov Christian y colaboradores (Archives of Sexual Behavior, 2012) determinaron que las medidas fueron demasiado variables tanto en longitud como en circunferencia, aunque muchos confesaron no haber alcanzado erecciones potentes debido a la falta de excitación.
La mayor parte de los hombres que formaron parte del estudio y consiguieron medidas adecuadas lo hicieron en medio de un momento de excitación intensa e incluso durante la relación sexual. (8)

Recomendaciones: como medir el pene

Analizando los datos provistos por los distintos trabajos de investigación, podemos aportar las siguientes recomendaciones para el hombre que desee saber cuánto mide su pene:
Pese al bombardeo mediático referente a como medir el pene y su tamaño, el 90% de los hombres tiene un falo de tamaño normal.
Si tienes dificultades para alcanzar erecciones efectivas o realmente tienes un pene cuyas dimensiones están por debajo de la media, conversa con tu pareja y acude al médico.
Puedes a su vez probar determinados geles que ayudan lalubricación del pene, haciendo más placentera el acto sexual o la masturbación.
Referencias
Perlitz Y y colaboradores (2011). Prenatal sonographic evaluation of the penile length. Prenatal Diagnosis. 2011; 31(13): 1283-1285, doi:10.1002/pd.2885.
Tomova A y colaboradores (2010). Growth and Development of Male External Genitalia. Arch Pediatr Adolesc Med. 2010; 164(12): 1152-1157.
Gabrich PN y colaboradores (2007). Penile anthropometry in Brazilian children and adolescents. Jornal de Pediatria. 2007; 83(5): 441-446.
Veale D y colaboradores (2014). Am I normal? A systematic review and construction of nomograms for flaccid and erect penis length and circumference in up to 15,521 men. BJU International. 2014; 115: 978-986, doi:10.1111/bju.13010.
Chen J y colaboradores (2000). Predicting penile size during erection. International Journal of Impotence Research. 2000; 12: 328-333.
Davoudzadeh EP y colaboradores (2018). Penile Length: Measurement Technique and Applications. Sexual Medicine reviews. 2018; 6(2): 261-271.
Herbenick Debby y colaboradores (2014). Erectile Penile Length and Circumference Dimensions of 1,661 Sexually Active Men in the United States. The Journal of Sexual Medicine. 11(1): 93-101, doi:10.1111/jsm.12244.
Grov C, Wells BE y Parsons JT (2012). Self-reported Penis Size and Experiences with Condoms Among Gay and Bisexual Men. Archives of Sexual Behavior. 2012; 42(2): 313-322, doi:10.1007/s10508-012-9952-4
submitted by saludybelleza to u/saludybelleza [link] [comments]


2018.10.22 13:58 Herzog_Herzegobine Bibliotecas Legales online

Buenos dias amados reputineros. Mi primer post es para manguear (y de paso compartir) sitios de descargas de libros de abogacia.
Hoy en dia se ha hecho bastante mas choto el conseguir bibliografia. Google te trae automaticamente paginas de editoriales y compraventa de libros (que estaria buenisimo, pero lamentablemente no dispongo del efectivo), y cuando no, te lleva a paginas de malwares.
Creo por otro lado, que no hay mucho material online, los libros que busco parece que nadie ha subido, o no se que onda, pero ya ni blogs con colecciones subidas encuentro.

Conocen alguna pagina para conseguir libros de derecho? Mas particularmente Habeas data/datos personales?
submitted by Herzog_Herzegobine to RepublicaArgentina [link] [comments]


2017.12.04 19:14 Raganok Test FAQ

***************El Club *************** 
¿Quienes somos?
Somos un Club integrado por jugadores de Mahjong Riichi o Mahjong Japonés de Argentina, que data desde antes del 2012.
¿Qué es el Mahjong Riichi?
El Mahjong Riichi es un juego de mesa que nace en el periodo de entreguerras. En 1928 un soldado llamado Saburo Hirayama introdujo el juego en Japón. En Tokio creó una escuela, un club de Mahjong y salones donde se puede jugar. A partir de este momento el juego crece en popularidad alcanzando hoy en día aproximadamente 8 millones de jugadores en Japón. Mahjong Riichi es una variante del Mahjong tradicional chino originario del siglo XVIII. Acá hay un video mostrando como se hacen las piezas tradicionales.
¿Dónde nos encontrás en la web?
En:
2de6
Thames 744, Capital Federal (Villa Crespo).
Martes de 17 a 22 horas. Sabados de 15 a 20 horas.
***************Aprender a jugar *************** 
¿Cómo puedo aprender a jugar?
La manera más fácil de aprender es jugando. ¡Nosotros te enseñamos todo! Vení a jugar con nosotros en 2de6.
¿Hay jugadores fuera de Capital y Gran Buenos Aires?
Si, conocemos algunos que juegan regularmente en internet, están en Discord e incluso participan el torneo online argentino. Para más información sobre los mismos, se puede contactar a los Mods por los canales nombrados en el último apartado de este FAQ.
¿Se puede aprender por internet?
Si, se puede, sin embargo con la práctica se aprende más rápido. En este video en inglés, está lo necesario para entender el juego en líneas generales. Si te resulta complicado comprenderlo por tu cuenta, podés venir a la sede, te podemos ayudar por chat, videollamada o nos podes encontrar a través de discord o el grupo de Club en Facebook.
¿Se puede jugar Online?
¿Qué es un yaku/yakuman?
Un Yaku o Yakuman es un criterio o regla para cerrar una mano. Para convertir tu mano en puntos, tiene que cumplir ciertos requisitos y obtener la ficha ganadora. Son más de 35. No es necesario aprenderlos todos de una sola vez, primero los más frecuentes y luego los demás.
***************El Mahjong Riichi en el mundo*************** 
¿Cuanto vale un set de Mahjong?
En el barrio chino de Belgrano, Capital Federal se puede encontrar algunos a 1400 pesos aproximadamente. Por mercado libre también se pueden comprar por 1300 pesos. También pueden traerse del exterior a través de E-bay, Amazon o alguna pagina japonesa de comercio online. La diferencia entre estos lugares, es el tipo de set al que uno accede. Los sets chinos, por su parte, generalmente no tienen aka doras (cincos rojos) y su tamaño es mayor en las fichas. Los sets de Riichi, en cambio si traen los aka doras y las fichas son más pequeñas. De todas formas aconsejamos preguntar por este detalle a la hora de comprar, como así también la calidad del set a adquirir.
¿Hay animé/manga/doramas de Mahjong?
Si, los más conocidos son:
¿Qué significa [inserte término en japonés]?
El mahjong tiene mucha terminología que no tiene traducción, o que tiene traducciones pobres. Hay un buen diccionario técnico acá.
¿Se hacen torneos?
Si, constantemente se organizan torneos presenciales y online en diferentes fechas del año.
Ya conozco todas las reglas, ¿cómo puedo mejorar mi nivel de juego?
Después de conocer bien las reglas, sugerimos
¿Hay un ranking de jugadores?
Si, en esta planilla hacemos un rank de los jugadores. Uno por temporada y uno de ranking general.
¿Qué comunidades/Páginas recomendás?
¿Tenés otra pregunta que no está acá? ¿Alguna sugerencia, duda o consulta?
Podés hacer un thread en Reddit o enviarnos un email a: [email protected]. A su vez, podés enviarnos un mensaje privado en la página de Facebook del club o contactarte con alguno de los moderadores de Discord, Reddit o Facebook..
No dudes en enviarnos un mensaje ¡siempre estamos en búsqueda de cómo mejorar!
submitted by Raganok to test [link] [comments]


2017.07.06 03:42 tobaby007 ¿Cómo ser un éxito en Twitch con estrategias de Neuromarketing?

Antes de explicarles cómo podemos utilizar el poder del cerebro para crecer nuestra comunidad en Twitch me gustaría presentarme.
Mi nombre es Alberto (@Albint3r) y soy Licenciado en Psicología y Mercadotecnia. Donde mi carrear me ha llevado al área de Neuromarketing y Big Data, razón por la cual actualmente trabajo en un proyecto de investigación para una empresa muy importante de autopartes en México.
Este proyecto de investigación culmino en la creación de un vídeo juego para la empresa, por eso tuve que adentrarme a conocer más de los gammer, siendo así que termine en Twitch. En mi proceso de análisis estudie el crecimiento de este sitio web y como supera por mucho a Youtube en stream, esto me hizo pensar ¿Qué tienen los canales de éxito que no tengan los demás?
Para responder esta pregunta hice lo mismo que todos:
• Conocí diferentes canales
• Vi los estilos de los streamers
• Revise sus videos
• Estudie sus herramientas de trabajo
• Vi que juegos eran los más populares
• Cuál era la media de audiencia por canal
• Cuáles eran los principales problemas que tienen los streamers
• Etc.
Todo mi análisis me llevo a varias conclusiones que sin lugar a duda harán que tu canal sea todo un éxito. Comprende los objetivos para armar tu estrategia
Es muy fácil decir “me gusta jugar vídeo juegos y quiero ganar dinero de esto ¡pongamos un canal ahora mismo!”, la verdad es que esto es mucho más complejo de lo que parece, si no me crees revisa esos canales que parecen pueblos fantasmas, donde ni su mamá pasa a darles follow. Debes de entender que existen 6 objetivos que debes alcanzar para que tu canal triunfe, estos son:
1) Que visiten por primera vez tu canal
2) Que permanezcan más de 3 minutos en tu stream
3) Que comenten en el chat
4) Que te den follow
5) Que regresen a tu stream
6) Que se suscriban o donen
Tal vez ahora que ves estos puntos digas “esto ya lo sabía”, pero créeme que he visto muchos canales que pasan estos puntos en “saco roto”. No hablare de errores, pero si tuviera que citar alguno daría de ejemplo aquellas personas que empiezan a pedir donativos antes de tiempo. ¡No esperes que la gente entre y diga “Shut up and take my money!” ¡No! Todo tiene un proceso y por eso te explicare paso por paso como ir alcanzando cada uno de estos objetivos utilizando estrategias de neuromarketing.
El juego empieza antes de que comience
Como digo en mi blog de seducción “el ligue no sucede en el bar, este empieza desde que estamos en casa”, pero ¿A qué me refiero con esto y qué demonios tiene que ver con tu canal? De hecho, tiene que ver más de lo que crees.
Nuestra primera misión es que entren a nuestro canal , pero para esto es importante que todo lo que vayan a ver dentro de él sea de su agrado. Mi trabajo no es darte una lista completa de cómo debe lucir tu canal visualmente, sino de lo que debes de tener:
• Portada llamativa
• Imagen de perfil
• Paneles de información
• Juegos que vas a transmitir
• Horarios que vas a jugar
• Ambientación de tu espacio de juego
• Información personal
• Redes sociales
• Crear tu cuenta de Paypal
• Preparación del layout en OBS
• Automatizaciones de Followers, subscriptores, donadores, etc.
Esta parte puede ser la que más tiempo te tome al principio, yo tarde unas 2 semanas en dejar algo que me pareciera aceptable para mí y para mi audiencia, donde la primera pregunta que tuve que contestar es ¿Qué quiero proyectar en mi canal?
Ya que existen solo 2 razones por lo cual la gente ve nuestro canal:
1) Porque somos buenos en el juego
2) Porque somos divertidos
Que mejor si cuentas con las dos cualidades, pero no te preocupes si esto no es así.
Arma tu canal una vez que sepas que quieres proyectar de ti, en mi caso quería mostrar el lado divertido e irreverente que tengo, ¿No me crees? Te reto a que visites mi perfil de LinkedIn y luego visites mi twitter, para que compares lo diferente que es el contenido entre red y red. Una red está pensada para aspectos laborales, mientras que la otra está pensada para ocio. Que sea una persona profesional en mi carrera no significa que no me pueda reírme de la vida o ¿sí?
Llama la atención o muere en el olvido
Si algo es bien sabido en la Neuro pirámide del Doctor Romano, es que el ser humano no toma decisiones por la razón, sino por la emoción. Si queremos tener una gran audiencia con miles de “followers”, es necesario generar emociones a nuestros espectadores.
Pero para llegar a crear una emoción es forzoso primero llamar la atención, de lo contrario los usuarios pasaran sin ver. Cuando los espectadores navegan por el directorio de canales existen 3 variables en las cuales prestan atención, estas son:
1) Imagen de tu canal
2) Título de la transmisión
3) Número de espectadores
Imagen de tu canal:
En esta parte no puedes manipular mucho la situación, ya que la imagen que se muestra tiene que ver con el momento en que se encuentra tu stream (o por lo menos algo muy parecido). En lo que si tienes control es en tu imagen personal y el layout que se muestra en el stream. Como dije, tu misión es llamara la atención, por esta razón existe muchas personas que hace uso de todo artículo, disfraz y de más utilería para captar tu atención, un ejemplo de esto es doctor Disrespect, su look estrafalario y sentido del humor lo hacen muy único.
Título del canal: Esta es la segunda variable para captar espectadores. Un título llamativo y audaz ayudara para que la gente quiera ver qué te traes entre manos. La lógica de un buen título es la siguiente:
• Debe ser corto y preciso
• Debe causar expectativa
• Debe mostrar un beneficio para el espectador
• Tiene que ser original
Estos principios son los mismos que se utilizan en publicidad, así que no es algo nuevo. Aquí te daré un ejemplo de un título que invita a la gente a querer saber más:
Tema para hoy miércoles: Di una frase que puedas usar durante el SEXO y en una CENA FAMILIAR ¿Cuál es la tuya?
Al ver este título se piensa una cosa “Algo hot está pasando ahí y yo no soy parte de eso”.
Número de espectadores:
El número de espectadores es un indicador de prueba social, a mayor cantidad es más probable que la gente quiera ingresar, digo, sin olvidar que el algoritmo de Twitch promueve los canales con más audiencia.
Definición de Prueba social: También conocida como influencia social informativa, es un fenómeno psicológico donde la gente asume las acciones de otros en un intento de reflejar el comportamiento correcto para una situación dada. Este efecto es prominente en situaciones sociales ambiguas en las que la gente es incapaz de determinar el modo apropiado de comportamiento y es impulsada por la suposición de que la gente que rodea posee más conocimiento sobre la situación.
Suponiendo que eres nuevo y que tienes pocos espectadores esto te deja en desventaja, pero no te preocupes, siempre hay usuarios que andan buscando nuevos canales, ya que esperan que el trato sea más cálido que aquellos que ya están consolidados.
Recuerda “El que mucho abarca poco ha de apretar”, por eso cada vez que entre un usuario a tu canal trátalo como un invitado en tu casa.
Creando atención dentro de tu canal
Hemos logrado que unos cuantos ingresen a nuestro canal ¿Y ahora… qué?
Como dije antes, hay streamers que usan de disfraces, accesorios y demás para captar tu atención por más de 3 minutos, ya que este es el tiempo promedio en que el espectador tomara una decisión de si quiere seguir sabiendo de ti o no. De hecho, estudios en neuromarketing han comprobado que las personas tardan 3 segundos en decidir si algo les gusta o no, este proceso es automático y autónomo, donde los sentidos son los responsables de llevar la información a nuestro cerebro y el núcleo accumbens es el centro de placer, responsable en decidir si nos agrada algo o no.
La buena noticia es que al tener una audiencia relativamente pequeña (o nula) podrás monitorear fácilmente quienes son nuevos y quienes ya son recurrentes. La pregunta aquí es ¿A quién debo prestarle más atención? Debes prestarles mayor atención a los recurrentes, ya que ellos son los que le dan vida a tu canal, además desde el marketing es muy bien sabido que cuesta 11 veces más atraer nuevos clientes que conservar los que ya se tenía. Eso no significa que no debemos platicar con los nuevos, pero será la misma conversación con los miembros recurrentes lo que generará prueba social con los nuevos.
https://clips.twitch.tv/PopularHappyCodDBstyle
En la seducción como en los programas de entretenimiento la gente presta el 92% de su atención al lenguaje corporal y tono de voz y 8% al que se dice, así que no temas tanto en lo que dices sino como lo dices, ejemplos de esto son:
• Usar un tono de voz fuerte (pero no grites)
• La velocidad de tu voz es importante (juaga con los ritmos)
• Gesticula cuando hables
• Usa tu cuerpo para expresar lo que dices
• No temas usar las manos y brazos para expresar un punto
• Sonríe y ríe de vez en cuando.
Al final del día la gente quiere conectar con un ser humano y no con un monitor frio. Aprovecha que tienes video para expresarte y no texto (como es el caso de este articulo).
Que los nuevos participen en el chat
No tienen que participar a fuerzas para que te den follow, pero en mi experiencia he notado que ellos usan primero el chat antes de empezarte a seguir. La gente quiere conectar con otras personas, cuando esto sucede se activas regiones del cerebro como son “las neuronas espejo”, estas neuronas son las encargadas de interpretar las emociones de los otros, en otras palabras, son las responsables de que existan empatía entre los unos con los otros.
Es en este punto donde las emociones se empiezan a generar. Es mejor generar una emoción negativa que ser emocionalmente neutral. Aprovecha que ellos te han saludado para iniciar una conversación, pregúntales de dónde son, cuantos años tienen, si ya jugaron el juego, que les gusta hacer, etc. Pero recuerda que es una conversación y no una entrevista, así que aporta contenido a lo que te digan, un ejemplo de esto es:
Espectador: Soy de Guadalajara Albint3r:
submitted by tobaby007 to Twitch [link] [comments]


2017.05.03 04:54 subreddit_stats Subreddit Stats: uruguay top posts from 2011-04-14 to 2017-05-02 19:00 PDT

Period: 2210.77 days
Submissions Comments
Total 1000 9668
Rate (per day) 0.45 4.37
Unique Redditors 430 913
Combined Score 11460 24859

Top Submitters' Top Submissions

  1. 898 points, 100 submissions: yorugua
    1. El Tribunal Supremo de Justicia venezolano decidió asumir las competencias de la Asamblea Nacional (20 points, 63 comments)
    2. Hace un año que no iba al Aeropuerto de Carrasco - Esta limpio y bien, pero hay algunas SSID que siguen como el año pasado... (20 points, 6 comments)
    3. Ancap cerró con ganancias por primera vez en cinco años (18 points, 11 comments)
    4. En fin... Forlán, 100 partidos (17 points, 2 comments)
    5. Murió China Zorrilla (17 points, 0 comments)
    6. Vos también te querés ir? (17 points, 34 comments)
    7. Proponen aumentar el IRPF para equilibrar las cuentas y bajar el déficit (16 points, 13 comments)
    8. Sendic dijo que sus inversiones en Ancap "prepararon" el actual superรกvit (16 points, 16 comments)
    9. Raúl Sendic ordenó que figure como "licenciado" (15 points, 7 comments)
    10. ¿Por qué Uruguay es un país caro? (14 points, 7 comments)
  2. 396 points, 26 submissions: tonterias
    1. Soy Despachante de Aduanas, AMAA (35 points, 96 comments)
    2. Hace instantes en Montevideo (34 points, 1 comment)
    3. me irl (32 points, 13 comments)
    4. 50 años de elecciones presidenciales en Uruguay: cómo votó cada departamento (31 points, 7 comments)
    5. Tormenta de verano en Montevideo (25 points, 2 comments)
    6. Tornado en Soriano genera destrozos (24 points, 13 comments)
    7. mapa con los nombres de los Barrios de Montevideo en inglés (23 points, 13 comments)
    8. ¿Qué opinan del "feminicidio"? (17 points, 69 comments)
    9. Pese a alerta de ciclón, hay locos corriendo en la pista de atletismo (16 points, 3 comments)
    10. "Esta vieja es peor que el tuerto" (14 points, 8 comments)
  3. 356 points, 25 submissions: enthius
    1. Spotted in Parks & Recreation. (42 points, 4 comments)
    2. Not even mad tbh (40 points, 13 comments)
    3. Significado de la bandera Uruguaya (X-post vexillology) (31 points, 1 comment)
    4. Arnold es nuestro, como Gardel. (29 points, 6 comments)
    5. How I'm feeling right now. (27 points, 15 comments)
    6. El agua en casa de mi madre (Maldonado) (23 points, 20 comments)
    7. Dammit Suarez (17 points, 5 comments)
    8. Uruguay perdio porque Brazil les saboteo el Dulce de Leche. (16 points, 3 comments)
    9. "bo" o "vo". Todos de acuerdo que "vos" se escribe con v. Pero cuando se usa sin la "ese" final en modo imperativo por ejemplo, es bo o vo? (11 points, 13 comments)
    10. Is there a lot of casual racism in Uruguayan media or have I just been out of the country for too long? Example image. (11 points, 28 comments)
  4. 280 points, 25 submissions: cmenghi
    1. Feliz año nuevo Uruguayo (31 points, 2 comments)
    2. URUGUAY: VICEPRESIDENTE ADMITE QUE NO ES LICENCIADO (25 points, 33 comments)
    3. Diario el País y el molesto registro para leer articulos (22 points, 8 comments)
    4. Felicidades a todos los redditeros yorugas! (21 points, 1 comment)
    5. Constanza Moreira “lo cierto es que el gobierno está poniendo impuestos nuevos todos los días” (16 points, 2 comments)
    6. Pasantías en USA para programadores Uruguayos: An Internship Program in Silicon Valley for Uruguayan Developers (14 points, 0 comments)
    7. Feliz Año (VASELINA) Suben las tarifas: 8% combustibles y ANTEL, 7,5% la electricidad y 8,2% OSE (12 points, 20 comments)
    8. Cuevas, al nivel de un top ten (11 points, 0 comments)
    9. Mides: aumento de $ 25.000 para los directores. (Esto se esta volviendo una joda.) (11 points, 4 comments)
    10. Presidente Vazquez: “Medios se convirtieron en un partido de oposición” (11 points, 23 comments)
  5. 277 points, 9 submissions: 5nowx
    1. Cuando tu post recibe mas de 1 upvote en /uruguay (xpost from /MadeMeSmile (70 points, 5 comments)
    2. Me Recordó a nuestro Pequeño sub (x-post from /me_irl (69 points, 3 comments)
    3. This is a Chivito, This is Uruguay!. (35 points, 8 comments)
    4. Murió el expresidente Jorge Batlle (24 points, 16 comments)
    5. La diferencia entre los uruguayos y como nos ven desde afuera(Inmigración-Emigración) (21 points, 12 comments)
    6. i hope nobody was in there (la rambla, tormenta 3/1)(Mención en /WTF) (17 points, 7 comments)
    7. Me_Irl (15 points, 10 comments)
    8. Global reddit meetup (14 points, 23 comments)
    9. Segundo Incidente: Otro taxista saca el arma contra un Chófer de UBER. esta vez dispara y le rompe el Parabrisas (12 points, 11 comments)
  6. 230 points, 15 submissions: 733138
    1. Hackeando el Sistema de Transporte Metropolitano de Montevideo (STM) (38 points, 21 comments)
    2. Uruguay es el país con mayor cantidad de ateos de toda América (23 points, 26 comments)
    3. TIL en Alabama también tienen "alfajores" (22 points, 42 comments)
    4. Urrutia fue elegido como el mejor piloto en Estados Unidos (21 points, 1 comment)
    5. Georgie Álvarez he ded (18 points, 20 comments)
    6. Firma ganó USD 740k en 2 días en negocio con IMM. Ningún equipo fue a ver el bien para estimar valor. (17 points, 5 comments)
    7. El costo de tener un auto en Uruguay (16 points, 29 comments)
    8. Mientras tanto, en la home de El Pais... (15 points, 3 comments)
    9. Un pequeño paso para el hombre, un gran paso para la humanidad: Jugadores no hablan más con Tenfield (11 points, 3 comments)
    10. "Los uruguayos vamos a desaparecer". Excelentísima nota al historiador Benjamín Nahum (10 points, 8 comments)
  7. 220 points, 18 submissions: tach
    1. 180.com.uy :: Marcelo dijo que “pasa hambre” pero tiene 100 taxis, según SUATT (22 points, 10 comments)
    2. "... Uruguay no solo estaba entre los 15 países que más empeoraron en las tres materias evaluadas (matemática, lectura y ciencia), sino que además tenía “una tasa de mejora negativa” en cada una de ellas." (19 points, 33 comments)
    3. Me siento honorado. (18 points, 5 comments)
    4. Talvi: "El gobierno de Mujica dilapidó como si no existiera un mañana" (16 points, 0 comments)
    5. Uruguay, junto con otros iluminados gobiernos (Arabia Saudita, Iran, Uzbekistán, Venezuela...) votó por controlar los contenidos en internet. (16 points, 11 comments)
    6. Eliminan una aula en mi escuela de infancia al instalar un generador para el casino del estado que colocaron al lado. (15 points, 7 comments)
    7. Sabor de mi infancia, la galleta de hojaldre o de capaña, una especie en extinción. (15 points, 11 comments)
    8. "Financiaron al MPP con asaltos hasta 1998 ya dentro de la estructura del Frente Amplio. La banda era "orgánica" y se creó a propuesta de José Mujica y Eleuterio Fernández Huidobro" (12 points, 16 comments)
    9. Millonaria obra de interconexión eléctrica con Brasil, finalizada en 2015 para venderle energía a ese país, nunca se utilizó (12 points, 14 comments)
    10. Huidobro, Mujica, Bonomi, Topolansky: hasta las manos (11 points, 3 comments)
  8. 218 points, 18 submissions: BrunoSG
    1. Aplausos para tonterias, uno de los primeros Uruguayos en /all! (30 points, 16 comments)
    2. POKEMON GO (23 points, 39 comments)
    3. Y por esto decimos que estamos bastante mejor que Argentina: minuto 17:20 pero vale la pena mirarlo todo. (15 points, 13 comments)
    4. TIL que tenemos un sitio como polifact.com (popular en /Politics) en Uruguay. (14 points, 10 comments)
    5. Anti-vaxxers en Uruguay? (12 points, 9 comments)
    6. Cuáles son las mayores implicaciones en nuestro país que tiene que haya ganado Macri en Argentina? (12 points, 21 comments)
    7. Estafa de 'Te arreglo la PC por TeamViewer' (11 points, 6 comments)
    8. Insesperadamente, Harold. (11 points, 6 comments)
    9. La Trampa vuelve a tocar en vivo – Video entrevista (11 points, 1 comment)
    10. Qué edad tienen y que estudian/en qué trabajan los redditors uruguayos? (11 points, 48 comments)
  9. 207 points, 20 submissions: MauBlackLagoon
    1. No aceptaron a Jihad Diyab en Sudáfrica y se vuelve pa' casita (16 points, 15 comments)
    2. Sí, alerta naranja... (16 points, 1 comment)
    3. TIL Que el nombre clave de un fusil antitanque polaco es "Urugwaj" (15 points, 4 comments)
    4. ¿Que escuchamos los uruguayos en la calle? (15 points, 3 comments)
    5. Chau Raincoop (13 points, 11 comments)
    6. Primer ómnibus eléctrico empezó a circular ayer (13 points, 11 comments)
    7. Se fue en cana Sanabria [Subrayado] (12 points, 5 comments)
    8. Al final entré al IAVA (11 points, 3 comments)
    9. ¿Qué estuvieron jugando/leyendo/mirando? (11 points, 26 comments)
    10. PSA: La ruta está re trancada (10 points, 28 comments)
  10. 165 points, 10 submissions: dude_in_the_mansuit
    1. Grutas de Salamanca, Maldonado (28 points, 0 comments)
    2. Evolución vs. Creacionismo en América Latina. Uruguay es el país con menos creacionistas. (25 points, 14 comments)
    3. Tormenta del 3, baño químico a exceso de velocidad (23 points, 4 comments)
    4. Uruguay legalises sale of recreational cannabis (de worldnews) (18 points, 12 comments)
    5. Metro de Montevideo: El combate de una utopía con creatividad y humor. (17 points, 10 comments)
    6. Estilo uruguayisimo en la cruz del Pan de Azucar (16 points, 5 comments)
    7. Parodia al comercial de Oca de Jaime Roos (12 points, 1 comment)
    8. TIL sobre el Valle de la Luna, en Rocha (11 points, 5 comments)
    9. Madrileños por el Mundo: Uruguay (2016) (9 points, 4 comments)
    10. Meditación (6 points, 9 comments)
  11. 164 points, 14 submissions: diskster
    1. Gaucho en Eject Mode [ex-post /PerfectTiming] (23 points, 5 comments)
    2. Oro Rojo: Roban morrones a productores uruguayos (19 points, 1 comment)
    3. ¿Lugares para atar el caballo en ciudad vieja? Sube el boleto $3 más. (16 points, 20 comments)
    4. "Cuando vinimos acá, no teníamos plata, ni nada y cuando nos vayamos de acá, tampoco nos llevaremos nada", dijo el Sirio (15 points, 17 comments)
    5. Suplemento O2 (El Observador) tiene una mala imagen de reddit, parece que no conocen 4ch (15 points, 12 comments)
    6. It's official Gringos, (a little late but) weed is available for sale in Drugstores of Uruguay (13 points, 13 comments)
    7. Aerolinea low cost conecta Montevideo y Santiago de chile por 177 USD precio final (10 points, 8 comments)
    8. Por qué los uruguayos somos tan punto medio? (10 points, 31 comments)
    9. A cuánto llega el dólar a fin de año? (2015) (8 points, 14 comments)
    10. Director del INJU desmintió mensaje que alerta sobre un "feriado bancario" (8 points, 5 comments)
  12. 163 points, 16 submissions: Fenris_uy
    1. No llegue a terminar el Corazón antes que se acabara /PLACE :( (25 points, 2 comments)
    2. Así es el decreto de la Intendencia que regulará Uber y otras aplicaciones (15 points, 1 comment)
    3. PISA muestra “mejora generalizada” en la educación respecto a 2012 (13 points, 15 comments)
    4. Por lo visto para Microsoft Uruguay no es un país, pero América Latina si. (13 points, 9 comments)
    5. Viendo los últimos post en /uruguay (12 points, 6 comments)
    6. 180: Aparece "imitador" de masacre de Newton en Paysandú (11 points, 2 comments)
    7. Boleto común a 28 pesos a partir del sábado (10 points, 12 comments)
    8. Estamos en la front de politics por la visita de Eric Trump (10 points, 11 comments)
    9. [x-post] Match Thread: Uruguay vs. Ecuador [World Cup Qualifiers] (9 points, 0 comments)
    10. 180: Mujica frena discusión sobre marihuana por encuestas (8 points, 6 comments)
  13. 159 points, 7 submissions: DrummerHead
    1. El dulce de leche es... (75 points, 23 comments)
    2. Nuevo cara para Uruguay (28 points, 23 comments)
    3. "Compartilo contigo mismo" parada de omnibus mod (19 points, 2 comments)
    4. Idiomas hablados en Uruguay, que piensan? (13 points, 36 comments)
    5. Pimp my Uruguay subreddit (10 points, 15 comments)
    6. Preguntas para la gente que ha vivido en Uy y en otro lugar, beneficios y detrimentos del país (8 points, 2 comments)
    7. Los beneficios de Uruguay (6 points, 52 comments)
  14. 151 points, 9 submissions: masaxo00
    1. El siempre trata de aparecer en todos lados, agamoslo llegar A ALL (50 points, 10 comments)
    2. Porcentaje de personas en América Latina que concuerdan con la frase "la mujer debe siempre obedecer a su marido" [x-post mapporn] tambien [X-post Argentina] (27 points, 22 comments)
    3. Llegamos a los 2300 suscriptores, Vamo arriba carajo!! (18 points, 4 comments)
    4. Cuando el subreddit es tan chico y se ponen a discutir de politica (14 points, 4 comments)
    5. Tamo en guerra con Japón? (11 points, 28 comments)
    6. Jugando con el /User_Simulator se me armaron estas frases de /Uruguay (10 points, 9 comments)
    7. Cual es el mayor foro Uruguayo? (8 points, 4 comments)
    8. Me parece a mi o esa playa es Punta del Este (repost /Funny) (8 points, 6 comments)
    9. ¿qué raro que nadie haya hecho un post sobre el cambio Nelson? (5 points, 29 comments)
  15. 138 points, 17 submissions: alquilarenmontevideo
    1. Uruguay entre los destinos recomendados de National Geographic (13 points, 5 comments)
    2. Injusticia de oro: ¿Por qué Suárez debería estar nominado? (11 points, 7 comments)
    3. Madre enviaba a sus hijos a la escuela con droga escondida en la mochila (10 points, 1 comment)
    4. Alerta máxima: se lesionó Suárez (9 points, 7 comments)
    5. Fuente oficial, salario promedio de la IMM: $73,000 (9 points, 16 comments)
    6. Trabajadores del Sunca a empresarios: "Les vamos a arrancar la cabeza" (9 points, 3 comments)
    7. Uber suma adeptos? En medio de la polémica por Uber, Rossi criticó el servicio del taxímetro (9 points, 7 comments)
    8. Hacia la nueva Ciudad Vieja - Que opinan de estos arreglos? (8 points, 6 comments)
    9. Marconi: Justicia dejó en libertad a todos los detenidos. No hay ómnibus y ni servicio de policlínica en la zona (8 points, 8 comments)
    10. Ola de memes en las redes tras la polémica por el título de Sendic (8 points, 2 comments)
  16. 132 points, 11 submissions: digitalice
    1. Uruguay: primer país del mundo que legaliza la producción de marihuana (32 points, 2 comments)
    2. Opinión en Reddit sobre los refugiados sirios en Uruguay. (16 points, 5 comments)
    3. La NSA está asociada con Antel desde hace años y nadie nunca le prestó atención. (14 points, 3 comments)
    4. ¿Cierre masivo de empresas? (14 points, 7 comments)
    5. Mujica viendo a Aerosmith en primera fila! (11 points, 1 comment)
    6. Los últimos días del tren fantasma (10 points, 4 comments)
    7. Se armó Piñata: Empleado de Uber y taxistas terminaron a los golpes (8 points, 0 comments)
    8. Uruguay sued by cigarette makers over anti-smoking laws (8 points, 7 comments)
    9. Udelar ratificó que el Santa Lucía está contaminado (7 points, 0 comments)
    10. ¿Cuanto eran 100mil pesos en 1947? (7 points, 7 comments)
  17. 124 points, 5 submissions: Schnackenpfeffer
    1. más de 2000 suscriptores en /uruguay (36 points, 13 comments)
    2. Basta de estandares injustos [x-post de /Argentina] (27 points, 6 comments)
    3. Banderas en Buceo (23 points, 5 comments)
    4. Los Teros derrotan a Brasil por el Campeonato de Rugby de las Américas (19 points, 4 comments)
    5. Street View ya está disponible en Uruguay. (19 points, 7 comments)
  18. 121 points, 9 submissions: DirkGentle
    1. Xpost from /gaming (32 points, 5 comments)
    2. Bueno, tratemos de hacer esta bandera. Modelo y ubicación en los comentarios (23 points, 34 comments)
    3. Cómo se llama un agua viva cuando se muere? (17 points, 13 comments)
    4. Quieren tratar de hacer una bandera de Uruguay acá? (15 points, 30 comments)
    5. Che, ayudemos a defender a nuestros aliados contra el void. Nos puede llegar a atacar a nosotros también (10 points, 7 comments)
    6. Si tabárez fuera un Cyborg, qué partes Robot se agregaría? (8 points, 13 comments)
    7. Alguno probó / piensa probar la nueva aplicación de pedidos? (6 points, 14 comments)
    8. Se acuerdan de un corto en el que torturaban a alguien obligando lo a comer sandía con vino? (6 points, 1 comment)
    9. Alguno ha ido al teatro Florencio Sanchez? Que tal es la zona? (4 points, 1 comment)
  19. 115 points, 12 submissions: NaBUru38
    1. Pablo Cuevas le ganó a Stan Wawrinka (nro 3) y avanzó a cuartos del ATP Masters 1000 de Montecarlo (18 points, 0 comments)
    2. Las Cimarronas de hockey césped se metieron en semis de la ronda 2 de la Liga Mundial (15 points, 0 comments)
    3. Santiago Urrutia pelea por seguir corriendo afuera (12 points, 0 comments)
    4. Ya hay 16 deportistas uruguayos clasificados a los Juegos Olímpicos de Río 2016 (11 points, 1 comment)
    5. Los Teros de rugby juegan tres partidos en Europa (10 points, 0 comments)
    6. Santi Urrugya hizo podio en la Indy Lights en la Florida (10 points, 0 comments)
    7. Desde el Cerro a Bella Unión: ya se vendieron 44 mil entradas para Uruguay - Brasil (9 points, 1 comment)
    8. Las Cimarronas preparan la Liga Mundial de Hockey en Vancouver (7 points, 4 comments)
    9. Pablo Cuevas avanza a octavos de final del ATP Masters 1000 de Montecarlo (7 points, 0 comments)
    10. Fiesta friki de emexem y Marvel Universe en Tristán Narvaja (sábado 22 de abril) (6 points, 0 comments)
  20. 105 points, 3 submissions: matiasebr
    1. [place] WE DID IT REDDIT! :) (65 points, 14 comments)
    2. [Place] Terminó! Logramos mantener nuestros diseños durante estas 72 horas! Gracias por participar de esta cruzada de píxeles! WE DID IT REDDIT! https://www.reddit.com/argentina/comments/63846j/termino_place/ https://www.reddit.com/place/comments/6382bb/place_has_ended/ (33 points, 13 comments)
    3. [place] Uruguayos! Atención! Hubo un gran error, este es el modelo Original! Vamos todos antes que nos invadan la zona! (7 points, 10 comments)
  21. 104 points, 9 submissions: spacemate
    1. Que le pasó a El País? Cuando se volvió tan basura? Entro y esto es lo que me encuentro. Kim Lali Susana Giménez Fariña, wtf? (24 points, 12 comments)
    2. Cuando estas en Reddit como siempre, y de pronto empiezan a hablar de Uruguay (Nada del pepe) (18 points, 0 comments)
    3. Tabaré Vázquez firmó un decreto que prohíbe los piquetes en calles y rutas (18 points, 16 comments)
    4. Uruguay ofrecerá servicios de data center a empresas nacionales e internacionales (11 points, 11 comments)
    5. Alguien alguna vez probó el Reddit Secret Santa? Se inscribirán este año? (9 points, 6 comments)
    6. Venta de fuegos artificiales (8 points, 7 comments)
    7. Donde comprar una buena tele? (6 points, 13 comments)
    8. Carpooling (5 points, 7 comments)
    9. Taxis abanadonarán el 'cero ficha' entre las 12 y 18 a partir de noviembre (5 points, 10 comments)
  22. 89 points, 7 submissions: johnblanco
    1. Ahora con soporte de flairs! (20 points, 31 comments)
    2. ¿A alguien le gustaria tener clases gratis de programación? (18 points, 10 comments)
    3. Habra chance de hacer una reddit meetup en Montevideo? (13 points, 30 comments)
    4. Uruguay está en la posición 13 de los países mas rectangulares del mundo. (12 points, 9 comments)
    5. reddit uruguay, les paso un blog de cocina de una blogger uruguaya (11 points, 6 comments)
    6. 23 de junio, reddit global meetup, esta vez tiene que funcionar (9 points, 4 comments)
    7. Promocion de preservativos en groupon? Estan cayendo en picada (6 points, 2 comments)

Top Commenters

  1. tonterias (1461 points, 557 comments)
  2. SVPPB (752 points, 209 comments)
  3. yorugua (621 points, 340 comments)
  4. Schnackenpfeffer (579 points, 134 comments)
  5. spacemate (545 points, 141 comments)
  6. nachof (480 points, 187 comments)
  7. dude_in_the_mansuit (480 points, 116 comments)
  8. Fenris_uy (470 points, 227 comments)
  9. cmenghi (424 points, 193 comments)
  10. diskster (403 points, 128 comments)
  11. enthius (388 points, 168 comments)
  12. alpargator (375 points, 118 comments)
  13. BrunoSG (361 points, 164 comments)
  14. condeelmaster (347 points, 96 comments)
  15. johnblanco (339 points, 136 comments)
  16. svc78 (330 points, 120 comments)
  17. martintcm (318 points, 103 comments)
  18. DrummerHead (280 points, 91 comments)
  19. MauBlackLagoon (269 points, 98 comments)
  20. russiancivisbestciv (259 points, 88 comments)
  21. Enchilada_McMustang (243 points, 95 comments)
  22. DirkGentle (242 points, 70 comments)
  23. whisperedzen (237 points, 94 comments)
  24. Seiknurt (234 points, 79 comments)
  25. tach (223 points, 114 comments)
  26. vpalengt (223 points, 74 comments)
  27. provinztruebsinn (220 points, 97 comments)
  28. 5nowx (219 points, 85 comments)
  29. poteland (203 points, 59 comments)
  30. masaxo00 (172 points, 42 comments)
  31. PeroMiraVos (171 points, 42 comments)
  32. BoTuLoX (168 points, 69 comments)
  33. loloh44 (164 points, 58 comments)
  34. kanirasta (163 points, 61 comments)
  35. NaBUru38 (159 points, 76 comments)
  36. irou- (157 points, 47 comments)
  37. glanchez (154 points, 51 comments)
  38. allthenamesaretaken0 (154 points, 47 comments)
  39. Cockygiftedguy (132 points, 45 comments)
  40. Auditor02 (131 points, 61 comments)
  41. Axxiss (130 points, 46 comments)
  42. Dreykan (129 points, 48 comments)
  43. elnano25 (128 points, 43 comments)
  44. Enamine (127 points, 52 comments)
  45. rovus (127 points, 46 comments)
  46. 733138 (127 points, 37 comments)
  47. Auditor01 (123 points, 38 comments)
  48. m4d_r0b0t (121 points, 45 comments)
  49. santiacq (121 points, 37 comments)
  50. lolligagger3000 (119 points, 34 comments)
  51. bijhan (113 points, 59 comments)
  52. maurocen (105 points, 46 comments)
  53. Thatzeraguy (104 points, 51 comments)
  54. calarval (104 points, 33 comments)
  55. kinslayeruy (102 points, 24 comments)
  56. argenpaul (100 points, 38 comments)
  57. TheCorporateBeast (90 points, 32 comments)
  58. shupala (85 points, 25 comments)
  59. Bruneti12 (84 points, 30 comments)
  60. bricktamer (80 points, 12 comments)

Top Submissions

  1. El dulce de leche es... by DrummerHead (75 points, 23 comments)
  2. Cuando tu post recibe mas de 1 upvote en /uruguay (xpost from /MadeMeSmile by 5nowx (70 points, 5 comments)
  3. Me Recordó a nuestro Pequeño sub (x-post from /me_irl by 5nowx (69 points, 3 comments)
  4. [place] WE DID IT REDDIT! :) by matiasebr (65 points, 14 comments)
  5. El siempre trata de aparecer en todos lados, agamoslo llegar A ALL by masaxo00 (50 points, 10 comments)
  6. Screenshot del juego Civilization VI para el Maracana. No creo que a los Brasileros les haga gracia. by Cabeza2000 (49 points, 3 comments)
  7. Gracias Uruguay! ♥ by thepigdrinker (44 points, 9 comments)
  8. Uruguay makes dramatic shift to nearly 95% electricity from clean energy by gustini (43 points, 15 comments)
  9. Spotted in Parks & Recreation. by enthius (42 points, 4 comments)
  10. You made this? by Enanoide (41 points, 34 comments)

Top Comments

  1. 37 points: dude_in_the_mansuit's comment in Tamo en guerra con Japón?
  2. 35 points: masaxo00's comment in Asking a los uruguayos, de parte de un hermano al otro lado del charco.
  3. 30 points: SkullBongus's comment in Loco es mucho pedir poder acostarme a dormir sin tener que escuchar murgas de mierda a esta hora un lunes o martes?
  4. 29 points: HeroicHeist's comment in [place] WE DID IT REDDIT! :)
  5. 29 points: bricktamer's comment in No aceptaron a Jihad Diyab en Sudáfrica y se vuelve pa' casita
  6. 28 points: gmuslera's comment in Uruguay es el país con mayor cantidad de ateos de toda América
  7. 26 points: condeelmaster's comment in Uruguay tiene la mayor tasa de suicidios de América Latina (25 personas cada 100.000 habitantes)
  8. 26 points: condeelmaster's comment in Conocí a una loca por tinder y vamos a salir por segunda vez, que se puede hacer de divertido en Montevideo?
  9. 26 points: sixbatterydroid's comment in Loco es mucho pedir poder acostarme a dormir sin tener que escuchar murgas de mierda a esta hora un lunes o martes?
  10. 26 points: tonterias's comment in What Cannabis Legalization in Uruguay Really Means for Tourists
Generated with BBoe's Subreddit Stats (Donate)
submitted by subreddit_stats to subreddit_stats [link] [comments]


2017.04.29 03:04 FieraDeidad Global Reddit Meetup Day June 17, 2017. Let's do this on Madrid!

Last Update:
Well, this was a success after all! I will upload pics of the meeting but you can check right now here the pic on 100 montaditos:
https://www.reddit.com/madrid/comments/6hvid5
So, I uploaded some pics of the event. Here you have:
http://imgur.com/a/rxSZF
Also, and just for your info, we are now on the official post with the pics of all the meetups of this year: https://www.reddit.com/GrMD/comments/6hxejp/photo_thread_post_your_grmd_2017_photos_in_this/
 
Original Post:
Hello you all! It seems that last year was a total failure, but this time we can just try again!
As Aevum1 suggested I'm opening this thread to set up this year meetup.
Sincerely I'm not going to setup some fancy meeting. I'm just proposing to go to a place and drink a couple of beers as we talk.
So, let's say:
-17/June/2017
-18:00 at Puerta del Sol on the entrance of the subway. I will print a paper with "Reddit Meeting" or something like that.
-Then we can go to drink somewhere. Just to be sure nobody is excluded because they don't have much money, maybe we could go to a "100 Montaditos". Maybe the one on Plaza Jacinto Benavente or the one near Plaza de Santa Ana.
I will wait at least for 30 minutes. If no one shows up I'll give it up. If someone show up I suppouse we could wait +10mins or more to see if someone else shows up.
If you want to come just write here a reply and of course, just show up there that day! I'm new to this sub but it seems that there is not so much people here so I will try to sends privates messages to all of you the week before as a reminder.
The only mod I can see here is Emmanuel_I so, please, could you make this an sticky thread? I'm going to ask bluepinkblack if he can add this thread to the main one
Edit: I just forgot. It seems that almost everyone here talks on english but I don't usually talk face to face on english with people. If you come to the event don't get mad if I need to make you repeat yourself, haha.
Edit2: Yay! We are now on the main thread thanks to bluepinkblack.
 
ESPAÑOL:
¡Hola a todos! Parece que el año pasado fue un absoluto fracaso, ¡pero esta vez podemos volver a intentarlo!
Tal y como Aevum1 sugirió, abro este hilo para preparar la reunion de este año.
Sinceramente no voy a preparar nada pomposo. Solo propongo ir a algún sitio y beber un par de cervezas mientras que hablamos.
Asi que, digamos:
-17/Junio/2017
-18:00 en la Puerta del Sol en la entrada del metro. Imprimiré un papel que ponga "Reddit Meeting" o algo así.
-Entonces podemos it a beber algo por ahí. Para asegurarnos de que nadie es excluido debido a la falta de dinero, quizás podríamos ir al "100 Montaditos". Quizás el de la Plaza Jacinto Benavente o el cercano a la Plaza de Santa Ana.
Esperaré unos 30minutos. Si nadie se presenta me retiraré. En caso de que alguien venga supongo que podemos esperar 10 minutos o algo mas para ver si alguien mas viene.
Si quieres venir simplemente deja un mensaje de respuesta aquí y, por supuesto, ¡ven al evento ese día! Soy nuevo en este subreddit pero parece que no hay demasiada gente así que trataré de enviaros mensajes privados a todos la semana anterior a modo de recordatorio.
submitted by FieraDeidad to Madrid [link] [comments]


2017.03.23 16:19 alforo_ Tres desafíos para la web, por su inventor Tim Berners-Lee

El 12 de marzo se cumplieron 28 años desde que Tim Berners-Lee hizo su propuesta original para una red informática mundial, que se materializaría en lo que hoy conocemos como web o World Wide Web (WWW), y cuyas bases son el lenguaje HTML (HyperText Markup Language), el protocolo HTTP (HyperText Transfer Protocol) y el sistema de localización de objetos en la web URL (Uniform Resource Locator). Con motivo de este aniversario ha escrito un artículo en el que plantea tres tendencias que van en contra de una web que sirva como herramienta útil para toda la humanidad.
Hoy se cumplen 28 años desde que envié mi propuesta original para la red informática mundial. Imaginaba la web como una plataforma abierta que permitiría a todas las personas, en todas partes compartir información, tener acceso a oportunidades y colaborar más allá de límites geográficos y culturales. De muchas maneras, la web ha cumplido con esta visión, aunque mantenerla abierta ha requerido de muchas batallas. Pero en los últimos 12 meses, me he sentido cada vez más preocupado por tres nuevas tendencias que creo que debemos abordar para que la web cumpla con su verdadero potencial como herramienta que sirve a toda la humanidad. 1) Hemos perdido control de nuestra información personal
El modelo de negocios actual de muchos sitios web ofrece contenido libre a cambio de información personal. Muchos estamos de acuerdo con esto -aunque a menudo aceptamos largos y confusos documentos con términos y condiciones- pero fundamentalmente no nos importa que se recopile algo de información a cambio de servicios gratuitos. Pero no estamos viendo un truco. Cuando nuestra información se conserva en lugares patentados, la perdemos de vista, perdemos los beneficios que podríamos obtener si tuviéramos control directo sobre esta información, y eligiéramos cuándo y con quién compartirla. Es más, a menudo no tenemos ninguna manera de dar a conocer a las empresas qué información preferiríamos no compartir –sobre todo con terceros– pues los términos y condiciones se toman o se dejan.
La recopilación de información generalizada por parte de las empresas tiene otros impactos. A través de la colaboración -o coacción- con empresas, los gobiernos también observan cada vez más todos nuestros movimientos en línea, y con la aprobación de leyes extremas que atentan contra nuestros derechos a la privacidad. En regímenes represivos, es fácil ver el daño que se puede causar – pueden arrestar a los blogueros o matarlos, y pueden monitorear a opositores políticos. Pero incluso en países donde creemos que los gobiernos tienen en mente el mejor interés de sus ciudadanos, esto simplemente va demasiado lejos todo el tiempo. Tiene un efecto negativo sobre la libertad de expresión y evita que se use la web como espacio para explorar asuntos importantes, como problemas delicados de salud, sexualidad o religión. 2) Es muy fácil difundir información errónea en la web
Hoy en día, la mayoría de personas encuentra noticias e información en la web por medio de apenas unas cuantas redes sociales y motores de búsqueda. Estos sitios ganan más dinero cuando hacemos clic en los enlaces que nos muestran. Y eligen qué mostrarnos basándose en algoritmos que adquieren ese conocimiento a partir de nuestra información personal, que extraen constantemente. El resultado final es que esos sitios nos muestran contenido en el que creen que haremos clic, lo que significa que la información errónea, o ‘noticias falsas’ (“fake news”), algo sorprendente, sobrecogedor o diseñado para apelar a nuestras preferencias, se puede esparcir como reguero de pólvora. Y a través del uso de ciencias de datos y ejércitos de bots, quienes tienen malas intenciones pueden engañar al sistema para difundir información errónea y obtener un beneficio económico o político. 3) La publicidad política en línea necesita transparencia y entendimiento
La publicidad política en línea se ha convertido rápidamente en una industria sofisticada. El hecho de que la mayoría obtenga su información de apenas un puñado de plataformas y la creciente sofisticación de los algoritmos que sacan provecho de abundantes reservas de información personal, significa que ahora las campañas políticas están elaborando anuncios individuales dirigidos directamente a los usuarios. Una fuente sugiere que durante el periodo electora estadounidense de 2016, diariamente se presentaban hasta 50,000 variaciones de anuncios en Facebook, situación a la que es casi imposible dar seguimiento. Y hay sugerencias de que algunos anuncios políticos –en Estados Unidos y alrededor del mundo- se están usando de maneras poco éticas –para dirigir a los votantes a sitios de noticias falsas, por ejemplo, o para hacer que potenciales votantes se mantengan alejados de las urnas. La publicidad dirigida permite que una campaña comunique cosas completamente diferentes, posiblemente contradictorias, a diferentes grupos. ¿Es eso democrático?
JPEG - 542.3 KB
Estos son problemas complejos, y las soluciones no serán simples. Pero ya podemos observar algunos senderos que nos pueden guiar hacia el progreso. Debemos trabajar junto con las empresas web para encontrar un equilibrio que a partir de criterios de justicia le devuelva un grado de control sobre información a las personas, incluido el desarrollo de nueva tecnología como “data pods” personales de ser necesario y explorar modelos alternativos de ingresos como suscripciones y micropagos. Debemos luchar contra los excesos gubernamentales en leyes de vigilancia, incluso a través de los tribunales, de ser necesario. Debemos rechazar la información errónea exhortando a gatekeepers como Google y Facebook a continuar los esfuerzos por combatir el problema, y también evitando la creación de cualquier órgano central para decidir qué es “verdadero” o no. Necesitamos más transparencia algorítmica para entender cómo se toman decisiones que afectan nuestra vida, y tal vez un conjunto de principios comunes a seguir. Necesitamos con urgencia cerrar el “punto ciego en internet” en la regulación de las campañas políticas.
Nuestro equipo en la Fundación Web trabajará en muchos de estos problemas como parte de nuestra nueva estrategia de cinco años – investigando los problemas con más detalle, elaborando soluciones de políticas proactivas y generando coaliciones para progresar hacia una web que otorgue igual poder y oportunidad a todos y todas. Los exhorto a apoyar nuestro trabajo de la manera que puedan -corriendo la voz, presionando a las empresas y gobiernos o haciendo una donación. También hemos recopilado un directorio de otras organizaciones de derechos digitales en todo el mundo para que también exploren y evalúen apoyar.
Tal vez yo haya inventado la web, pero todos han ayudado a crear lo que es hoy en día. Todos los blogs, artículos, tuits, fotos, videos, aplicaciones, páginas web y más representan las contribuciones de millones en todo el mundo que construyen nuestra comunidad en línea. Todo tipo de personas han ayudado, desde políticos que luchan por mantener la web abierta, organizaciones de normalización como W3C que aumentan el poder, la accesibilidad y la seguridad de la tecnología, y personas que han protestado en las calles. El año pasado, vimos a los nigerianos resistirse a un proyecto de ley de medios sociales que hubiera obstaculizado la libre expresión en línea, clamor popular y protestas en regional bloqueos regionales de internet en Camerún y enorme apoyo público a la neutralidad de la red en India y la Unión Europea.
Se ha necesitado de todos para construir la web que tenemos, y ahora depende de nosotros construir la web que queremos -para todos y todas. Si quieres tener una mayor participación, únete a nuestra lista de correo, colabora con nosotros, únete o dona a alguna de las organizaciones que están trabajando en estos problemas alrededor del mundo.
Sir Tim Berners-Lee
submitted by alforo_ to podemos [link] [comments]