sexta-feira, 29 de agosto de 2014

INTERNET DAS COISAS, A QUARTA ONDA.



A Internet das Coisas ou Internet of Everything (IoE, sigla em inglês) como é conhecido o conjunto de tecnologias capaz de conectar máquinas, processos, informações e pessoas, está ganhando dimensões gigantescas em números de transações e valores e é prioridade em diversos segmentos da economia, tanto no setor privado como público.

Análises e pesquisas feitas por empresas globais de TI informam que a IoE será tão impactante na vida das pessoas, nos próximos anos, como foi a chegada do computador, a da Web e a da telefonia celular. Previsões internacionais indicam que o número de equipamentos e dispositivos conectados até o final da década será maior do que 50 bilhões, gerando 35 trilhões de transações de dados e movimentando dezenas de trilhões de dólares.

Celulares, tevês, lâmpadas, geladeiras, micro-ondas, relógios, pulseiras, semáforos, pedágios, centrais de trânsito, turbinas de avião, distribuidoras de energia, carros, roupas, câmeras de vigilância, uma infinidade de aparelhos, máquinas, processos recebendo e enviando dados para a nuvem e datacenters por redes sem fio e satélites. Isso é a IoE, que se impõe não por ser um conceito bonito, mas porque é uma força econômica mundial. Sistemas inteligentes se comunicando com vários dispositivos e em rede garantem um grande impacto, oferecendo mais eficiência, redução de custos, criação de novos produtos, modelos de negócios e valor agregado.

Não por acaso empresas e governos se movimentam para padronizar protocolos de comunicação e desenvolver produtos e softwares para a nova revolução das máquinas e coisas. A Cisco é uma das gigantes de TI envolvidas nesse desafio tecnológico. Seu diretor de vendas do segmento corporativo para a América Latina, Luis Rego, lembra que a IoE representa a quarta onda da internet. A primeira foi a simples divulgação e acesso da informação; a segunda, o comércio eletrônico; a terceira, a Web 3.0, colaborativa e com a massificação da mobilidade.

Max Ciqueira, consultor da Lyra Network, especializada em serviços de telecomunicações, lembra que hoje tudo está relacionado ou se conectando. "A IoE é um conceito que nos remete a uma estrutura de redes se relacionando com plataformas de aplicativos, entrega de serviços e conectividade básica". Para Ciqueira, tudo faz parte de uma revolução tremenda no mercado de tecnologia, com a criação de novas estruturas, serviços e necessidades específicas. O consultor cita um exemplo simples de IoE já conhecido do usuário: uma pessoa instala uma câmera de monitoramento em casa e, por meio de um aplicativo ou software inteligente, acessa o interior dela ou aciona algumas funções remotamente. No varejo, o consumidor identificado e mapeado por sensores e aplicativos de celulares foi integrado à IoE.

DE BARCELONA AO BRASIL

Algumas aplicações mais coordenadas estão em andamento em várias partes do mundo, inclusive no Brasil, e ampliam a ideia de cidades inteligentes ou digitais onde se dá a integração total dos serviços e processos da IoE. Barcelona é uma cidade considerada referência nesse conceito, segundo Luis Rego. A capital catalã teve uma transformação urbana radical para abrigar os Jogos Olímpicos de 1992, revitalizando bairros e a área portuária e, agora, tem sido alvo de vários projetos urbanos com tecnologia "smart". Com redes wi-fi públicas e sensores, por exemplo, a prefeitura monitora as lixeiras nas ruas e sabe, em tempo real, quando precisam ser esvaziadas. Com isso, gerencia melhor as rotas de coletas e reduz custos de operação e manutenção.

Barcelona também oferece serviços virtuais, com vídeos que permitem à pessoa se comunicar com a prefeitura sem precisar se locomover até a repartição pública. Paradas de ônibus e veículos conectados também informam direcionamento, trajeto e tempo de espera para o transporte coletivo (algo similar ao que se está tentando em alguns pontos de São Paulo). Estacionamentos informam onde há vagas disponíveis, a iluminação pública, com sensores e protocolos de internet, também dispõe de gerenciamento e manutenção de lâmpadas. Com essas e outras aplicações a prefeitura da capital da Catalunha prevê economizar 3 bilhões de euros, reduzindo custos de operação e aumentando a eficiência.

Em São Paulo, destaque para as pequenas Águas de São Pedro e Aparecida do Norte. A primeira, com cerca de 3 mil habitantes, está se transformando na primeira cidade totalmente digital do País com apoio da Telefônica Vivo. A primeira fase do projeto foi concluída em abril, com a instalação da banda larga por fibra óptica e rede móvel 4G. Com cobertura de Wi-Fi por toda a cidade e em altas velocidades, Águas de São Pedro está se adiantando no futuro. Terá sensores nas ruas para contagem de veículos, iluminação inteligente, monitoramento de segurança, consultas médicas via Web, agentes de saúde usando tablets integrados à plataforma eHealth da Telefônica e painéis eletrônicos com informações para turistas. A Telefônica investindo R$ 2 milhões na cidade desde o ano passado.

Em Aparecida do Norte, com cerca de 40 mil habitantes, a EDP (empresa portuguesa do setor elétrico) está instalando uma smart grid (rede inteligente de transmissão e distribuição de energia) nas zonas urbana e rural. O objetivo é a medição eletrônica, geração distribuída, eficiência energética e mobilidade elétrica. "Com sensores nos medidores residenciais e industriais é possível medir o consumo e distribuir a energia de forma mais confiável, além de reduzir furtos", afirma Rego. Brasil, Rússia, Índia, China e África do Sul devem investir US$ 275 bilhões nos próximos 10 anos em infraestrutura para essas redes elétricas inteligentes.

PRIVACIDADE É O DESAFIO

Fernando Martins, diretor-executivo da Intel, especialista e apaixonado pelo assunto, cita outra aplicação da IoT que visa a reduzir o tempo dos aviões em solo para manutenção. Turbinas de aviões de última geração da GE dispõem de processadores internos e sensores para testar a vibração dessas turbinas e enviar dados em tempo real (e por satélite) para a central de manutenção. Enquanto estão no ar, em voos de carreira, essas turbinas são testadas online. Se precisarem de manutenção ou troca de peças isso será feito de forma mais rápida e racional em solo, onde já estará tudo preparado para recebê-las.

A Intel criou até uma divisão para desenvolver produtos (chips, dispositivos) e sistemas para a IoE. Martins destaca que o impacto econômico dessa tecnologia envolvendo pessoas, coisas e processos até o fim da década será perto de US$ 30 trilhões - tanto no setor privado como público. Relatório da Cisco diz que no ano passado, só no setor privado, a IoE movimentou mundialmente US$ 613 bilhões.

A privacidade é um dos desafios dessas novas tecnologias, mas Martins observa que o cidadão "até concorda em abrir mão de parte dela para desfrutar de uma sociedade mais inovadora, conveniente, segura e inteligente". Segundo estudo mundial encomendado pela Intel, mesmo os brasileiros não se importariam em ter menos privacidade se isso lhes permitisse melhor circulação nas cidades, com rotas que lhes dessem ganho de tempo na viagem. Mais: 83% dos entrevistados no Brasil permitiriam que fosse instalado um sensor em seus carros para encontrar uma vaga em estacionamento.

O objetivo da Intel é ambicioso. A empresa quer criar e estender tecnologia computacional para conectar a vida de todas as pessoas do planeta até o final da década. Mas todos esses sistemas, dispositivos e processos geram um tráfego monumental de dados e para que eles fluam sem dificuldade e de maneira natural, são necessários protocolos de comunicação. Por isso, várias empresas estão se agrupando em consórcios para definir esses padrões abertos que permitam a interoperabilidade dos objetos com os sistemas, entre elas estão a IBM, AT&T, Cisco, Samsung, LG, Intel, Panasonic, GE, Google, Qualcomm. São essas alianças que precisam resolver os grandes desafios dessa nova onda.

Internet das coisas: Quem monitora a rede?

IPNEWS, 26 AGOSTO 2014

A Internet das Coisas envolve tudo que está conectado, com suas vantagens e desvantagens, o que significa que o administrador de rede terá de conviver com um conjunto de desafios.


Quem monitora o monitor?

Os wearables (dispositivos eletrônicos que se usam no corpo) são um exemplo de ‘coisa’ utilizada em aplicações na área da saúde, seja no controle da pulsação ou na verificação da frequência cardíaca de um paciente. No caso de uma repentina queda da frequência cardíaca automaticamente seria acionada uma ambulância, que localizaria o paciente via sinal do GPS. Porém, o que aconteceria se ocorresse uma falha no software, o dispositivo desconectasse ou se desligasse? 
O receptador dos dados de monitoramento do paciente também tem de ser notificado sobre o status do wearable. É necessário monitorar o dispositivo para garantir o fluxo constante e confiável das informações monitoradas. Para os hospitais que podem equipar seus pacientes com esses tipos de wearables, a integração em seu ambiente de TI é apenas o começo. Eles também devem pensar em como atualizar sua estratégia de monitoramento de rede. Lembrem-se: tudo estará conectado!

Rede industrial inteligente: Indústria 4.0

Também na indústria de transformação, dispositivos (wearables) que medem a exposição ao ruído pelos trabalhadores poderiam integrar um cenário futurístico. Ou então, imagine linhas de montagem que nunca são afetadas por interrupções não planejadas e cujo trabalho de manutenção pode ser programado para um momento específico e as peças de reposição chegam antes mesmo de a substituição ser necessária. Nada mais de luzes de advertência que piscam apenas depois de ocorrido um erro.
Esta tendência de desenvolvimento é chamada de indústria inteligente (industrial internet). Na Alemanha é conhecida por Indústria 4.0, numa referência à quarta revolução industrial, iniciada como um projeto de alta tecnologia do governo alemão. A ideia é criar redes inteligentes ao longo de toda a cadeia de valor, que pode controlar-se mutuamente de forma autônoma. Embora ainda estejamos no início dessa revolução, é importante começar a planejar. A delicada integração com a infraestrutura de TI existente não deve ser feita de forma impensada. Monitorar ‘coisas’ - neste caso, máquinas industriais complexas - não é tão diferente de monitorar dispositivos numa rede. O que importa é obter dados relevantes que podem ser analisados e utilizados com um propósito.

Monitoramento 4.0: desafio e oportunidade para a área de TI

Assim como as diferentes fases da revolução industrial, a área de TI também está em constante evolução e o monitoramento de rede contribui para este desenvolvimento. Quando foi introduzida, essa tecnologia era utilizada para monitorar dispositivos de TI físicos (Monitoramento 1.0), como roteadores ou switches. Com a virtualização de redes, novos conceitos e funcionalidades foram aplicados (Monitoramento 2.0), para reunir e processar novos tipos de informações relevantes.
O próximo passo lógico foi executar as aplicações em nuvem e ampliar ainda mais a virtualização. Para permitir que os usuários de soluções SaaS (sigla em inglês para Software como Serviço) e outras aplicações acessem seus ambientes, a conexão na nuvem  deve ser acompanhada de perto (Monitoramento 3.0). E isso inclui o monitoramento de serviços e recursos de todos os ângulos, assegurando o bom funcionamento de todos os sistemas e conexões na nuvem.
Além da necessidade de continuar monitorando todos os dispositivos, máquinas virtuais e aplicações baseadas na nuvem, a Internet das Coisas inaugura uma nova era - o Monitoramento 4.0 - visto que com cada nova ‘coisa’ conectada à rede, a quantidade de dados que podem e devem ser analisados também cresce constantemente.
Devido à natureza heterogênea das ‘coisas’ e aplicações, muitas das quais, provavelmente, não imaginamos hoje, será difícil ter uma solução configurada que atenda a todos os cenários possíveis. Uma solução viável seria a utilização de sensores personalizados, já utilizados por muitas empresas.
Temos conhecimento de usuários de ferramentas de monitoramento bastante criativos, que utilizam sensores personalizados para monitorar fazendas de camarão ou refrigeradores para banco de sangue num hospital, que não se tratam de dispositivos de rede, mas sim de ‘coisas’ reais.
Com base no feedback dos clientes aprendemos novas aplicações e constantemente aperfeiçoamos o sistema de monitoramento, de modo que eles possam monitorar todas as “coisas” que desejarem.
*Dirk Paessler é CEO da  Paessler AG

terça-feira, 26 de agosto de 2014

AÇÕES DAS TELES FECHAM EM QUEDA APÓS ANÚNCIO DO LEILÃO DE 700 MHZ

     

As ações do grupo Telefônica Vivo, TIM, Embratel e Oi fecharam hoje em queda,
acompanhando o desempenho geral da Bovespa, após o anúncio do leilão de
700 MHz, que ocorrerá em 30 de setembro, feito ontem pela Anatel.
A TIM foi a que mais sofreu, com perda de 3,8% seguida pela Embratel, Telelefônica 
e Oi. Na avaliação dos analistas, não deverá aparecer nova empresa para disputar o leilão,
e o governo deverá arrecadar apenas o preço mínimo, já considerado bem alto pelo mercado.
Para os bancos, a economia de escala que será gerada pela faixa de 700 MHz não deverá 
compensar o alto preço de venda do espectro, de R$ 0,74/MHz/pop ou US$ 0,33 MHz/pop 
(considerando-se a venda de 80 MHz para uma população de cerca de 200 milhões), pois
não há receita nova, mas apenas complementar ao que já existe com a faixa de 2,5 Hz que 
foi licitada em 2012.
valor total deste leilão é de R$ 11,8 bilhões, sendo que R$ 8,2 bi irão para o Tesouro 
Nacional e outros R$ 3,6 bilhões para a limpeza da faixa, ainda ocupada pelas emissoras 
de TV analógicas.
As avaliações são de que não haverá nenhuma operadora nova (nem mesmo a AT&T, 
que comprou recentemente a operadora de TV paga DirecTV Sky da América Latina
e Brasil) e nem mesmo a Nextel deverá participar da disputa. O que deixará os quatro
otes para as quatro operadoras instaladas – Claro, Oi, TIM e Vivo. As duas operadoras 
regionais (CTBC e Sercomtel) terão chance de comprar o espectro referente a sua área
de cobertura, mas irão disputar com a quarta empresa que ainda não tiver adquirido
700 MHz no leilão.

3G E 4G VÃO DOMINAR CONEXÕES M2M ATÉ 2018

Segundo empresa de pesquisa de mercado Berg Insight, nos Estados Unidos, essas redes devem predominar já neste ano.


O mercado de M2M já começou a migrar da conectividade 2G, no caso de soluções que usam redes celulares, para 3G e 4G. E, até 2018, a maior parte das conexões da internet de todas as coisas deve se realizar nestas redes. A previsão, da empresa sueca de pesquisa de mercado Berg Insight, aponta que o uso de HSPA e LTE para M2M ficará em 20% do mercado até dezembro deste ano, mas que vai superar a barreira dos 50% em cinco anos.
Segundo a empresa, em 2017 já serão fabricados mais dispositivos M2M com tecnologia 3g ou 4G do que 2G, no mundo. Até lá, a HSPA deve ser a tecnologia mais utilizada, em função dos custos, ainda mais altos, da LTE. O principal indício da virada vem dos Estados Unidos, onde as operadoras já divulgaram planos de desligamento de redes 2G. No país norte-americano, a maioria dos dispositivos da internet das coisas ligados a redes celulares vai usar 3G até dezembro.
O cenário no mundo é variado, porém. Na Europa, a expectativa é que as redes 2G existam até depois de 2020, na maioria dos países que compõem a União Europeia. No mercado asiático, o ritmo é mais veloz, similar ao dos EUA. Segundo a empresa, o Japão já tem a maioria dos equipamentos M2M funcionando em redes 3G. Embora o estudo não aborde o Brasil, por aqui, as operadoras já oferecem planos para M2M que se beneficiam das velocidades mais altas das redes HSPA/LTE.
O catalisador de tais transformações, explica a Berg, será o aumento de dados coletados pelos dispositivos e a demanda do mercado automobilístico. “A indústria automotiva está comprometida em criar os carros conectados, que requerem conexão banda larga permanente. GM e Audi já lançaram veículos com LTE embutido nos EUA”, ressalta Tobias Ryberg, analista da  empresa de pesquisa.

APÓS UM ANO DE ESPERA, M2M COM IMPOSTO MENOR VAI VALER A PARTIR DE SETEMBRO

Agora, a bola está de novo com as empresas, que precisam mandar para a Anatel as informações sobre os chips que serão usados no mercado brasileiro com a função de comunicação Machine-To-Machine (M2M).Segundo o superintendente da Anatel, Marconi Maya, já foi desenvolvido o sistema que faltava para permitir a desoneração do Fistel. A sua expectativa é que no início de setembro a medida esteja em pleno funcionamento.


Agora, a bola está de novo com as empresas, que precisam mandar para a Anatel as informações sobre os chips que serão usados no mercado brasileiro com a função de comunicação Machine-To-Machine (M2M).Segundo o superintendente da Anatel, Marconi Maya, já foi desenvolvido o sistema que faltava para permitir a desoneração do Fistel.  A sua expectativa é que no início de setembro a medida esteja em pleno funcionamento.
O  mercado de M2M no Brasil espera há um ano pelo desenrolar desta novela, e, segundo analistas, há um represamento nos investimentos. Mas todos projetam uma forte expansão dessas conexões com a efetiva desoneração desta taxa, que agora só depende da agilidade da Anatel para começar a valer.
Já não é sem tempo. Esta desoneração foi criada pela Lei 12.715 de 2012, que também aprovou os incentivos fiscais do REPNBL (Regime Especial de Tributação do Programa Nacional de Banda Larga para Implantação de Redes de Telecomunicações), cuja primeira etapa já foi inclusive vencida.
A desoneração no caso da M2M se refere simplesmente à taxa do Fistel (Fundo de Fiscalização das Telecomunicações), que, vamos e convenhamos, há muitos anos e a bilhões de reais atrás existe apenas para repassar recursos para o Tesouro Nacional e não repassar nada para o usuário de telecomunicações.
Pois a lei de 2012 estabeleceu que  as conexões M2M que não tenham a intervenção humana – o que exclui todas as máquinas de cartão de crédito e débito dos lojistas – deixarão de pagar R$ 26,83 ao serem ativadas e mais R$ 13,40 por cada renovação anual, para pagar R$ 5,68 na ativação e R$ 1,89 nas renovações anuais.
Lei aprovada, foram  necessários oito meses de negociação dentro do  governo  para que esta desoneração fosse finalmente regulamentada por decreto, em maio deste ano.
Depois disso, veio o excesso de zelo da Anatel, que queria do Ministério das Comunicações uma regulamentação específica para regulamentar o regulamentado. O MiniCom, por sua vez, entendeu que não precisava de mais nada, bastando que a agência aplicasse a norma presidencial.
Aí veio o problema do sistema. A Anatel não tinha um sistema de arrecadação capaz de aceitar taxas diferenciadas para produtos iguais. Na verdade, a agência está preocupada com a possibilidade de fraudes, pois nem todos os chips e nem todos os tipos de conexões poderão receber o incentivo fiscal. E demorou para criar este sistema. Que agora precisa ser alimentado pelas empresas, para a agência se certificar que está tudo certo e poder, finalmente, liberar a isenção fiscal.
Conforme o decreto, “são considerados sistemas de comunicação máquina a máquina os dispositivos que, sem intervenção humana, utilizem redes de telecomunicações para transmitir dados a aplicações remotas com o objetivo de monitorar, medir e controlar o próprio dispositivo, o ambiente ao seu redor ou sistemas de dados a ele conectados por meio dessas redes”.

Por incrível que possa parecer, ainda se discute na agência a possibilidade de elaboração de regra que defina melhor quais são de fato os serviços que poderão ser prestados com o chip desonerado, mas, felizmente, esta discussão não irá impedir que o processo comece.

Em junho deste ano, segundo os dados da Anatel, havia 9,1 milhões de conexões M2M no país. Essa base, em sua maioria, representa os terminais de venda dos cartões de crédito, que não serão desonerados. Mas há um grande e novo mercado a ser criado, e por isto as operadoras de celular já começam  a se organizar para atendê-lo.

Conforme projeções da Ericsson, os dispositivos M2M vão aumentar até quatro vezes em todo o globo, até 2019. No ano passado, estimava a empresa, havia 200 milhões de conexões maquina a maquina, ainda em sua maioria na conexão  2G, que paulatinamente tende a migrar para as conexões mais velozes de 3G E 4G.

Big Data: governo subutiliza dados do monitoramento de veículos



Convergência Digital - Hotsite Cloud Computing :: Por Suzana Liskaukas :: 25/08/2014



Apesar de sistemas que incluem câmeras de monitoramento e equipamentos para controle de acesso e medição de veículos estarem presentes no dia a dia das metrópoles brasileiras, os recursos tecnológicos inseridos nessas ferramentas ainda são subutilizados no país. A situação é ainda mais flagrante quando a gestão desses equipamentos está nas mãos do governo. Entre as principais causas está a falta sistemática de um protocolo de ação.
O especialista Ricardo Simões, gerente de produto da Perkons, empresa que atua desde a década de 90 em tecnologia de trânsito e desenvolve soluções presentes em 14 estados brasileiros, chama a atenção sobre a ausência de protocolos de ação, análises sobre comportamento ou cruzamento de informações que poderão nortear atividades, como recapeamento ou controle de semáforos. Ele explica que as câmeras instaladas para monitorar o trânsito em vias públicas, aliadas a software inteligentes, podem criar poderosos bancos de dados.
“Quando todas as informações estão centralizadas, é possível antecipar, reduzir e preparar a resposta às ocorrências - acidentes, falta de luz, alagamentos, deslizamentos. Isso tem relação não somente com o tráfego, mas com a segurança de uma forma geral constituindo um valioso serviço de utilidade pública”, afirma Simões. Ele lamenta o fato de, aqui, a integração entre as diversas ferramentas disponíveis e instaladas não é levada em conta.
Porém, sustenta Simões, a análise e o cruzamento desses dados podem otimizar recursos no poder público e melhorar o dia a dia dos cidadãos em termos de mobilidade urbana. Na visão del, na maioria dos estados brasileiros, ainda falta esta visão relacionada ao protocolo de ação por parte dos gestores públicos.
Na prática, os software analíticos podem ajudar a planejar, por exemplo, infraestrutura de estradas e vias. Simões explica que os sistemas de recapeamento poderiam ser baseados na intensidade do tráfego das vias e do tipo de veículos que mais trafegam, evitando desgaste excessivo de materiais e recursos financeiros.  Outro exemplo, de acordo com o especialista, seria a programação de sinais de trânsito para evitar pontos de gargalho e favorecer a mobilidade urbana.
“Ou ainda a identificação de vias em que há um tráfego intenso de motocicletas a fim de que estas áreas tenham corredores específicos para motociclistas. Este é um exemplo que já é bem executado na cidade de São Paulo”, comenta.
Um estudo da FGV mostra que as cidades brasileiras ainda usam pouco da tecnologia para melhoria da gestão de trânsito. De acordo com levantamento feito pela FGV Projetos, em 31 prefeituras – 20 capitais e 11 municípios com mais de 200 mil habitantes – embora todos reconheçam a importância da tecnologia, menos de 20% a utilizam para controlar o tráfego.
Para Simões, entre as ferramentas que podem ser mais bem empregadas pelos órgãos para melhorias no trânsito, estão equipamentos para controle de acesso, medição de velocidade, leitura de placas, pesagem, comunicação com o usuário – como os painéis de mensagens variáveis (PMV). Além de câmeras de monitoramento, centros de controle, aplicativos para smartphones, contagem e classificação de tráfego, entre outros.
O especialista, no entanto, destaca exemplos entre as cidades brasileiras, onde a interoperabilidade das ferramentas relacionadas à tecnologia para segurança e controle de trânsito já oferecem resultados no dia a dia da população. No Rio de Janeiro, em Belo Horizonte, São Paulo e no Distrito Federal, os órgãos responsáveis pela gestão de trânsito maximizam os recursos tecnológicos em prol da segurança da população e da melhoria de mobilidade urbana.
“É o caso do Centro de Operações do Rio de Janeiro (COR) (http://www.rio.rj.gov.br/web/corio). O órgão reúne uma série de ferramentas que permitem a coordenação e o planejamento de ações mais rápidas e eficazes no tratamento das questões de crise da cidade. Já em Belo Horizonte, de acordo com informações da Empresa de Transportes e Trânsito (BHTrans), as ferramentas para controle do tráfego são monitoradas pela Gerência da Central de Operações do Tráfego(GECOT). Entre elas, destaque para a contagem de veículos via sensores físicos ou virtuais com o objetivo de fornecer relatórios”, detalha.

terça-feira, 5 de agosto de 2014

TIM lança planos 3G e 4G para M2M



Seg, 04 de Agosto de 2014 15:46
Pacotes têm capacidade de 2,5GB.



A TIM anunciou pacotes de dados 3G e 4G para empresas interessadas em adotar a comunicação entre máquinas (M2M), como as concessionárias de serviços públicos, setor financeiro, automotivo, segurança, entre outros. Antes restritos à rede 2G, com capacidade de 20MB, os pacotes de comunicação máquina-a-máquina agora também utilizarão as tecnologias 3G e 4G


O recente anúncio do governo sobre a redução do Fistel para chips M2M promete impulsionar o negócio e aumentar a competição entre as operadoras. Apesar de ainda não haver regulamentação da Anatel para o segmento, houve redução significativa da taxa de instalação (TFI) para habilitação dos chips de R$ 26,83 para R$ 5,68 e da taxa de fiscalização de funcionamento (TFF) de R$ 8,94 para R$ 1,89.
“Entendemos a necessidade dos clientes e inovamos neste novo portfólio visando o crescimento de demandas específicas de M2M, tanto para os segmentos PME como Grandes Empresas”, afirma Fabio Cristilli, Diretor de Internet, VAS e Handsets da TIM Brasil.
Os novos planos TIM M2M têm capacidade de 20MB, 50 MB, 100 MB e 2,5 GB por acesso, bloqueio opcional do consumo excedente, de voz e VAS. O cliente também poderá optar por pacotes exclusivos de SMS de 50 acessos (R$ 6,90) até 10.000 acessos (R$ 699,90). 

segunda-feira, 4 de agosto de 2014

Public Utilities Commission of Ohio Advances Broadband Deployment by Adopting Comprehensive Set of Pole Attachment Rules, Modeled on Federal Rules


 

Posted in Pole Attachments


On July 30, 2014, the Public Utilities Commission of Ohio (“PUCO”) issued its Finding and Order, “In the Matter of the Adoption of Chapter 4901:1-3, Ohio Administrative Code, Concerning Access to Poles”, Ducts, Conduits, and Rights-of-Way by Public Utilities, pursuant to which PUCO adopted a comprehensive set of rules governing access to public utility poles, conduits and rights-of-way (“Ohio Pole Attachment Rules”).

The Ohio Pole Attachment Rules generally harmonize with the Federal Communications Commission’s (“FCC”) pole attachment rules found at 47 C.F.R. § 1.1401, et seq.  For instance, the Ohio Pole Attachment Rules (like the federal rules) provide that a utility must provide nondiscriminatory access to any pole, conduit or right-of-way owned or controlled by it, on just and reasonable rates, terms and conditions, and may only deny access where there is insufficient capacity and for reasons of safety, reliability and generally applicable engineering purposes.  The Ohio Pole Attachment Rules also establish an access timeline, similar to the FCC’s new (since 2011) access timeline (with slight variations), which sets maximum timeframes for application turn around, and the performance of pre-construction surveys and make-ready.

Rather than adopt a dual-rate formula structure, like the FCC’s (which has a “cable” and “telecom” rate formula, as required by the federal Pole Attachment Act, 47 U.S.C. § 224), the Ohio Pole Attachment Order adopts a single, unified pole attachment rate formula based on the FCC’s cable rate formula.  In adopting a single rate formula, the PUCO noted “that the cost incurred by the pole owner to provide attachment space is not affected by the services being provided by the attaching entity.”  The PUCO further opined that the FCC’s cable rate formula “has been deemed compensatory by the courts.”  The PUCO rejected utility efforts to push for a formula that would have yielded rates even higher than the FCC’s “old” telecom formula, which DWT discussed when the FCC issued its “new” telecom formula.

The Ohio Pole Attachment Rules also significantly advance wireless attachment rights.  Specifically, the Rules expressly extend access rights to wireless attachments, including those on pole tops and in the communications space. They also impose access timelines for wireless attachments that are only slightly longer than those for wired attachments, similar to FCC rules.
In sum, by modeling their new Pole Attachment Rules on existing FCC rules, the PUCO has helped to pave the way for easier, less costly build-out of communications infrastructure in the United States.