Data Centers Hand Over Policy & Procedures
Phase 1:
1.Contracts(HLD  & LLD)
2.Meeting Notes, Agenda, Settlements and Amendments(As-Is, To-Be)

Phase 2:
3.Disaster site & Solutions
4.Site Plans , Maps
5.Racks Layouts & Dimensions
6.Network Architecture Topology & Communications
7.Site Environments Policy & Standards
8.Standards & Best practices & Revisions
9.IP Plan, Port Plan, Naming standard & Revisions

Phase 3:
          i.Servers(Stand alone, Cluster)
          ii.Storages(Stand alone, Replication)
          iii.Tape library robots
          iv.Passive/Active Network Equipment & Protocols
          v.Spare parts
          ii.Operating System
          iii.Database(Stand alone, Replication/DataGuard, Cluster/RAC)
          iv.Business Applications & Utilities
          v.Assets/Resources diagram, Monitoring & Management systems
                    a.Inbound/Outbound bandwidth
                    b.Traffic Load
                    c.Packet loss
                    a.SAN Switches
                    d.I/O Utilization Rate
                    e.Fan Speed
                    h.Load Balancing
               4.Virtual Machines
               5.Operating systems
          i.LOM (List Of Materials)
          ii.User manuals & guides
          iii.ATP (Acceptance Test Procedure)
          iv.Inventory list & design layout & Revisions.
               1.Server type (vendor, machine type and model number)
               2.Switch/director type (vendor, machine type and model number)
               3.Storage type (vendor, machine type and model number), Storage partitioning
               4.Fibre Channel protocols that devices support and cannot support
               5.Device (server, storage, SAN components) names and description
               6.Distances between devices (maximum and minimum)
               7.Location of admin consoles or management servers
               8.Current cabinet address
               9.Operating systems, maintenance level and firmware levels
               10.Quantity and type of adapters installed
               11.List of WWNs and WWPNs
               12.Cabling cabinets
               13.Labels for cables
               14.Cable routing mapped
               15.Current connections
               16.Current configurations
               17.SAN Switch Topology and Communications
               18.Space allocated: A list of LUNs allocated to servers
               19.Space available: A list of free space in the disk device
               20.Fabric Connection: A detailed wiring diagram of the SAN fabric
               21.Fabric Port layout: A port usage plan detailing what ports are currently used, which ports are spare
               22.Zone Information: Both hard(Port level zone) and soft(WWPN) zoning in place
               23.IP addresses: A list of IP addresses for all fabric components, as well as a list of spare ones
               24.Fabric model Serial numbers: The IBM product serial numbers
               25.Micro code versions: The level of micro code installed on the disk devices
               26.Firmware version: The level of firmware running on the SAN fabric

Phase 4:
11.Requirements(Pre installation, Installation, Post installation)
     a.Functionality (Direct requirements)
     b.Quality (indirect requirements)
12.Services(Client/Server Services, Web)
13.All Configuration & Checklists and Scheduling
14.High availability Solution and Continuous Service Delivery Policy & Procedures & Scenarios

Phase 5:
15.Planned & Unplanned Downtime Policy & Procedures  & Scenarios
     a.Backup/Restore/Recovery Policy & window time & Procedures (Yearly, Monthly, Weekly, Daily)      b.Crash recovery Policy & Procedures (Locate, TShot Addressing, Restoration) (Does it meet datacenter tier n standards for example Tier 3 and 99.982% downtime per year(94.608 minutes)?)
     c.Periodic Maintenance Procedures & Scenarios
     d.Troubleshooting Procedures & Scenarios
16.Security Policy & Procedures
17.SLA ,KPI, Alarm types(Critical, Major ,Minor , Warning)

Phase 6:
19.I & C (Installation & Commissioning) Tests Results
     a.ATP (Acceptance Test Procedures) Documents
     b.PAC (Preliminary Acceptance Certificate) Signature
     c.FAC (Final Acceptance Certificate) Signature
20.CR & Expansion Policy and Procedures

Phase 7:
21.Trainings Course Syllabus
22.Organization chart & job descriptions
23.Admin/Root Users & Passwords

Source: Khashayar jamsahar

+ نوشته شده توسط خشایار جام سحر در دوشنبه نوزدهم خرداد 1393 و ساعت 12:38 بعد از ظهر |

Data Centers Risks are

A/C Failure
Acid Leak
Bomb Threat
Bomb Blast
Brown Out
Burst Pipe
Cable Cut
Chemical Spill
CO Fire
Coolant Leak
Cooling Tower Leak
Corrupted Data
Diesel Generator
Electrical Short
Frozen Pipes
Hail Storm
Halon Discharge
Human Error
HVAC Failure
H/W Error
Ice Storm
Logic Bomb
Lost Data
Low Voltage
Microwave Fade
Network Failure
PCB Contamination
Plane Crash
Power Outage
Power Spike
Power Surge
Programmer Error
Raw Sewage
Relocation Delay
Roof Cave In
Shotgun Blast
Shredded Data
Sick building
Smoke Damage
Snow Storm
Sprinkler Discharge
Static Electricity
Strike Action
S/W Error
S/W Ransom
Toilet Overflow
Train Derailment
Transformer File
UPS Failure
Vehicle Crash
Water (Various)
Wind Storm

Source: IBM Redbooks SG24-6143-01

+ نوشته شده توسط خشایار جام سحر در دوشنبه نوزدهم اسفند 1392 و ساعت 9:2 قبل از ظهر |

Magic Quadrant for Business Intelligence and Analytics Platforms
(5 February 2013 ID:G00239854)


  • IBM continues to maintain its leading position on the Completeness of Vision axis for this year's Magic Quadrant, as it scores very well on virtually all the vision criteria. In particular, IBM's overall marketing strategy strengthens the messaging of its core BI (Cognos) and predictive analytics (SPSS) acquisitions. This is not typical with most megavendor acquisitions. Also, customer feedback has improved, largely due to the continuous customer migration to IBM Cognos Business Intelligence 10.x from Cognos 8 Business Intelligence.
  • IBM further expanded its BI and analytics offerings in 2012 through build — for example, IBM Cognos BI 10.2, Cognos Insight, SPSS Modeler 15, Analytical Decision Management 7.0 and
  • Analytic Answers — and through acquisition — for example, Tealeaf Technology, Varicent Software and Vivisimo. Cognos Insight is a personal analytics product that can be deployed stand-alone on the desktop, or as an analysis and planning client as part of the Cognos server-based products. Analytical Decision Management enables organizations to automate, optimize and govern repeatable business decisions. The business analytics portfolio was enhanced by the acquisition of Varicent, a leading provider of analytics software for compensation and sales performance management.
  • IBM improved its ability to address departmental, workgroup or smaller company business analytics requirements through the release of IBM Cognos Express 10.1, which provided comprehensive BI suite functionality along with budgeting, planning and forecasting capabilities at a lower license cost, but with a limitation of up to 100 end-user seats.
  • Analytic Answers was another significant offering added recently. Gartner has predicted that, by 2014, up to 40% of analytics projects will be service-led and software-supported. IBM, delivering "analytics as a service," will enable organizations to mitigate one of the most critical nontechnical barriers to advanced analytics adoption: the lack of analytical skills. Analytic Answers is not simply a cloud offering that enables a shorter time to market, or turns capital expenditure into operating expenditure to encourage business analytics adoption. Rather, it is an analytics platform with prebuilt, domain-specific data models and embedded, relevant, statistical and advanced analytical algorithms that offer answers to industry-specific questions. This offering will enable IBM to effectively leverage its complete analytical assets — including analytical software, hardware, analytical knowledge, industrial practices, intellectual property and cloud delivery model — to allow maximum user access to IBM advanced analytics capabilities.
  • According to this year's customer reference survey, nearly 60% of references are using Cognos BI 10.x, which is three times more than Cognos 8 BI. Also, more than 80% of 10.x  references claimed Cognos as their BI standard. Gartner inquiries in 2012 were in line with the reference survey results that customers are, in general, satisfied with Cognos BI 10.x, and with the migration process.
  • From the survey, the top reasons why customers select IBM are road map and future vision, product quality, and ability to integrate with information infrastructure (database, middleware). IBM's road map and future vision scored significantly above average; thus, it is weighted heavily in reference purchasing decisions.


  • Performance remains a concern, although primarily with the Cognos 8 BI base. When asked about problems with software, 24% of IBM references cited poor performance as a concern, compared with the industry average of 11.5% across all vendors. When asked about product-specific limitations to a wider deployment, 16% of references cited poor performance, compared with the industry average of 6.8%. IBM addresses this problem in 10.x by providing further query engine enhancements in 10.2 (in-memory ROLAP, aggregate awareness and so on).
  • References continue to cite the Cognos products as more difficult to use. When asked about the most important reasons for choosing IBM, only 17.74% of references cited ease of use for end users, compared with the industry average of 35.1%, putting IBM in bottom quartile. Also, IBM references cited an average of 6.45 days to create a report, compared with the market average of 3.95 days, again ranking IBM in the bottom quartile. Readers should note that this statistic is a blended average of the time required to develop simple, moderately complex and complex reports. IBM has made usability a priority investment area, and this is reflected in the higher survey ratings for Cognos BI 10 versus Cognos 8 BI.
  • References rated IBM as having slightly lower than average customer experiences, with support and sales interactions, along with product quality, rated in the lower quartile of all vendors reviewed in this research. However, Cognos BI 10 references continued to rate product functionality near the top of all vendors, and support, sales and product quality were rated better than for Cognos 8 BI.
  • In the user activity section of the reference survey, IBM customers were above the average in the percentage of users viewing static reports — 49.67% compared with the industry average of 39%. Also, IBM customers were below average in the percentage of users performing interactive exploration and analysis of data, with 13.46% of IBM references compared with the industry average of 26.41%


  • Microsoft offers a competitive and expanding set of BI and analytics capabilities, packaging and pricing that appeal to Microsoft developers, its independent distributor channel, and now to business users through enhanced BI and data discovery capabilities in Excel 2013. The company's strategy has been to enhance the BI capabilities in three of its core offerings with each release — including Microsoft Office (specifically Excel), Microsoft SQL Server and Microsoft SharePoint — to increase their value and drive upgrades. Moreover, Microsoft hopes to leverage its cloud offering to enhance opportunities to grow its market share and deliver value by lowering cost of ownership and accelerating product enhancements and the adoption of new releases.
  • By incorporating BI capabilities into its most ubiquitous products, and by removing deployment barriers, Microsoft virtually guarantees its BI offering's continued and even expanded adoption, particularly in organizations that have standardized on Microsoft for information management. As a result of this strategy, since the company's serious entry into the market in 2000, Microsoft's BI market share has grown steadily to take the No. 3 spot in 2011. With the new functionality added and planned for Microsoft Excel, we expect Microsoft's market share growth to continue.
  • Microsoft's packaging strategy for BI and enterprise pricing often makes it a compelling license cost value proposition for organizations that want to deploy BI to a wider range of users, or that want to lower overall BI portfolio license costs by using lower-cost BI tools for basic BI functions. As Microsoft continues to enhance its BI capabilities in products that most companies already own and use (Excel, SQL Server and SharePoint), the functionality premium for alternatives may become increasingly difficult for many organizations to justify. In the Magic Quadrant customer survey, more Microsoft customers cite TCO and license cost as the No. 1 reasons for selecting Microsoft as a BI vendor, as opposed to most other vendors in the survey. This has been the case for each of the past six years in which Gartner has run the survey.
  • Nowhere will Microsoft's packaging strategy likely have a greater impact on the BI market than as a result of its recent and planned enhancements to Excel. Finally, with Office 2013, Excel is no longer the former 1997, 64K row-limited, tab-limited spreadsheet. It finally begins to deliver on Microsoft's long-awaited strategic road map and vision to make Excel not only the most widely deployed BI tool, but also the most functional business-user-oriented BI capability for reporting, dashboards and visual-based data discovery analysis. Over the next year, Microsoft plans to introduce a number of high-value and competitive enhancements to Excel, including geospatial and 3D analysis, and self-service ETL with search across internal and external data sources. These enhancements, along with planned support for analyzing large and diverse data (PolyBase, Microsoft's platform to enable a single query across relational and Hadoop data sources, is due in the first half of 2013), contribute to Microsoft's strong product vision score this year — one of six measures used to determine its positive movement in overall vision position.
  • Microsoft Excel users are often disaffected business BI users who are unable to conduct the analysis they want using enterprise, IT-centric tools. Since these users are the typical target users of data discovery tool vendors, Microsoft's aggressive plans to enhance Excel will likely pose an additional competitive threat beyond the mainstreaming and integration of data discovery features as part of the other leading, IT-centric enterprise platforms. With the introduction of Office 2013, these target users will begin to have a compelling reason to use the BI and data discovery capabilities they already have in their beloved Excel. To have a material impact on the market, the challenge for Microsoft will be to reduce product release cycles (Office release cycles have been every two years or more) and condense customer release adoption cycles (most companies deploy one or more versions of Office behind the latest).
  • Microsoft intends to address these significant barriers in 2013 by shortening product update cycles, while leveraging the cloud (Click-to-Run) to deploy the latest releases to users in a timely fashion. The success of this strategy largely depends on user adoption of Microsoft cloud offerings, which should roll out and be sold in full force in 2013.
  • Microsoft's market success is also driven in part by its IT-oriented BI authoring tools within SQL Server, which are based on Visual Studio, the broadly adopted development environment.
  • Microsoft continues to be viewed positively as a development environment with armies of global developers and developer partners skilled in Visual Studio .NET, and because it is building and selling analytic applications and solutions on top of the Microsoft stack. This approach, along with targeted marketing efforts and programs for building strong developer communities and support, has helped Microsoft lower the cost and expand the availability of its BI skills. In the Magic Quadrant survey, Microsoft customers rated its BI platform infrastructure among the highest compared with most other vendors, and a higher percentage of customers use it extensively. Moreover, "wide availability of skills" is among the top reasons why customers select Microsoft more often than all other competing vendors in the survey.
  • OLAP continues to be a widely deployed capability of the Microsoft BI platform, with more than 90% of Microsoft customers reporting they use it. This is among the highest adoption compared with other vendors. This success can be attributed to the packaging of Microsoft SQL Server Analysis Services functionality, its use as an optimization layer in most Microsoft BI deployments, and because of its optimizations with Microsoft front-end tools. Building on the in-memory capabilities of PowerPivot in SQL Server 2012, Microsoft introduced a fully in-memory version of Microsoft Analysis Services cubes, based on the same data structure as PowerPivot, to address the needs of organizations that are turning to newer in-memory OLAP architectures over traditional, multidimensional OLAP architectures to support dynamic and interactive analysis of large datasets. Above-average performance ratings suggest that customers are happy with the in-memory improvements in SQL Server 2012 compared with SQL Server 2008 R2, which ranks below the survey average.
  • While Microsoft's BI platform is attractive to SMBs, it is widely deployed in large enterprises as a standard with among the highest data volumes and user counts. Among the highest percentage of customers say they have standardized on the Microsoft BI platform. In addition, among the highest percentage of survey respondents of any vendor say they choose Microsoft because it is an enterprise standard, and because of the wide availability of skills. Like the other megavendors, stack centricity is evident among Microsoft customers, which use Microsoft Dynamics as their primary ERP two times more frequently than the survey average, and use Microsoft SQL Server as their primary enterprise data warehouse (EDW) almost three times more frequently than the survey average.


  • Microsoft, like the other megavendors, can meet some of the broadest range of functional requirements, and has among the highest RFP mapping scores of any vendor. However, customers using SQL Server 2012 rate the product functionality significantly higher than customers using SQL Server 2008 R2. While all SQL Server 2008 R2 functional scores are below the survey average, SQL Server 2012 metadata management, Office integration, search-based BI, OLAP, BI infrastructure capabilities, development tools, reporting and ad hoc query all received above-average ratings. Microsoft's weighted average product score across both product versions is in the bottom quartile, due to a smaller number of SQL Server 2012 customer respondents. Microsoft also rates among the highest in percentage of users that say absent or weak functionality is among the top problems they have with the software (this is mostly reported by SQL Server 2008 R2 customers). Similarly, product quality, support, performance and sales experience continue to be below average for SQL Server 2008 R2, but SQL Server 2012 customers report above-average experiences across the same measures. While Microsoft's partner-driven sales model drives global growth for the company, Gartner inquiries suggest that this approach often makes it difficult for customers to find their Microsoft sales representative. This frustration may be the source of downward pressure on
  • Microsoft's sales experience scores. The dichotomy of results between SQL Server 2008 R2 and SQL Server 2012 customers affected Microsoft's Ability to Execute position on this Magic Quadrant. As customers upgrade to SQL Server 2012 and Office 2013, we expect to see improved overall product, customer and sales experience results.
  • Multiproduct complexity is a challenge. Because Microsoft's BI platform capabilities exist across three different tools (Office, SQL Server and SharePoint) that also perform non-BI functions, integrating the necessary components and building the applications is left to the organization. Microsoft's do-it-yourself approach puts more of the BI solution's development and integration onus for the platform components on customers, compared with the all-in-one purpose-built BI platforms offered by most other vendors in the BI market. Microsoft is depending on its cloud offerings to reduce the deployment complexity, particularly for smaller companies without the necessary skills. Partners, such as HP, have also stepped in to address this barrier to adoption with packaged offerings, including reference architectures and preloaded, integrated and configured appliances with Microsoft's BI components.
  • Microsoft BI is primarily used for reporting by report consumers, as opposed to a broad spectrum of more advanced types of analysis. Microsoft BI capabilities tend to be used by an above-average percentage of users to total employees, as well as by an above-average percentage of external users, with most users — more than 65% identified as consumers or casual users — primarily using reporting and parameterized reports. Users' complexity of analysis score for Microsoft BI is also below the survey average. We expect this to change with the introduction and adoption of Office 2013, which includes a visual-based data discovery tool, Power View and other interactive analysis capabilities within Excel.
  • Microsoft lags behind most other BI vendors in delivering mobile BI capabilities. It has been slow to deliver BI on mobile devices. Latent demand for Microsoft mobile BI is evident from the survey, with Microsoft customers reporting among the highest percentage of respondents (48%) planning to implement mobile in the next year — second only to Oracle, which has also lagged in delivering mobile capabilities.
  • Microsoft CPM capabilities (for example, planning and budgeting) are limited to embedded functionality, such as financial reporting, in Microsoft Dynamics applications. As a result, Microsoft's performance management product strategy is limited compared with the other stack vendors (IBM, Oracle and SAP), which offer stand-alone CPM products that are also (at least in theory, or on the road map) integrated with the rest of their BI stacks. Microsoft instead relies on its partners, such as Tagetik and Board, to deliver Microsoft-based CPM solutions.
  • Most companies buy Microsoft because of low license cost and overall low cost of ownership. In fact, licensing cost can be favorable because of packaging, for companies with enterprise licensing agreements, and for companies that move to Office 365. However, while Microsoft's total BI platform ownership cost (including license, hardware, implementation and ongoing development) is below average on a per-user basis, it tends to be consistent with other megavendors, mainly due to implementation and ongoing development costs, which compose more than 75% of three-year BI platform ownership costs, particularly in large deployments. There is evidence that the improved ease of use and lower report development times for SQL Server 2012, as well as the integration and upgrade benefits from cloud deployment, may help improve this cost curve for these Microsoft customers.


  • MicroStrategy specializes in enterprise BI deployments running on top of large EDWs. It is typically deployed in larger enterprises that consider it to be their enterprise BI standard. Its deployments remain among the most complex in terms of functionality, large numbers of users, high data volume and wide deployment across an enterprise, although it is not as distinctive from competitors as in the past.
  • The BI platform was built from the ground up through completely organic development. The high level of integration of the individual platform components and the reusability of MicroStrategy's well-architected and object-oriented semantic layer are the result of this strategy. Another consequence is that customers identify product quality (which includes stability, reliability and being bug-free) as one of the top reasons for selecting MicroStrategy.
  • By avoiding the hassle of integrating products from the acquisition of smaller vendors, MicroStrategy is able to spend more development effort in the core BI product, in reinforcing its enterprise-scale pedigree through initiatives for high performance across all layers of its platform, and in providing better administration tools to help manage complex deployments. Moreover, this approach frees the company's resources to have a bold innovation strategy in areas such as mobile, cloud and social.
  • The heavy investment in mobile BI, initially on Research In Motion (RIM) BlackBerry devices and now on the Apple iPhone/iPad and Android devices, is paying off for MicroStrategy. The company is the Magic Quadrant leader in terms of adoption, with close to 50% of the surveyed customers actively using or piloting mobility for BI. In 2012, it was recognized by Gartner as having the broadest and most advanced set of mobile capabilities in the BI market (see "Critical Capabilities for Mobile BI"), and it has continued to evolve the mobile tool, adding new visualizations, improving performance and delivering tight integration with the data discovery tool (Visual Insight) and the cloud offerings. As a result, MicroStrategy is being considered for competitive bids in companies that see mobility as a strategic imperative; in some cases, it is even succeeding to replace or complement long-established BI vendors that lag behind in mobile BI.
  • MicroStrategy has also embraced cloud BI as a strategic differentiator and is delivering a renewed set of solutions. Cloud Personal and Cloud Express (the entry-level and workgroup options) raise awareness in the market, but it is Cloud Platform that may become a game changer for the company. It provides a comprehensive solution by bundling ETL and database solutions with the full stack of MicroStrategy's BI tools and its own system optimization and administration services. This results in the capability to set up a new BI platform environment in a few days — scalability according to demand and potentially lower TCO. MicroStrategy claims to be gaining deals with this solution — including some large companies within and outside the current customer base, making the cloud offering its most successful product in the first year since launch.
  • During 2012, MicroStrategy's data discovery tool, Visual Insight, was updated with new visualization capabilities, improved usability, additional analytic functions and better integration with the enterprise report-centric architecture, the mobile and cloud offerings. It is now a more capable product to prevent incursions in the customer base from competitors' products, and will help position MicroStrategy as a more friendly BI platform for users and developers. Going forward, it may become the standard interface for information analysis and report design.
  • There are two other forward-looking focus areas for the company: Hadoop integration — for semistructured and unstructured data analysis, and for social data leveraging — through a connector that delivers Facebook profile data to a MicroStrategy analytic application. However, they don't have as much impact in the current installed base.


  • While the MicroStrategy development environment is robust and flexible, there is a steep learning curve, even for seasoned report developers building any level of analytic complexity into parameterized reports that simulate ad hoc analysis and interactive dashboards for business users. Even though usability enhancements were delivered with MicroStrategy 9.x (such as more one-click user actions, reusable dashboards and dashboard design wizards), its customers continue to rate the platform below average for ease of use for development and ease of use for end users. Mobile BI and Visual Insight adoption should contribute to resolve the issue and change this assessment, but their relevance is still low in the overall user base.
  • MicroStrategy needs to continue working to improve overall usability because it may be a strong contributor to the survey's low score in the achievement of business benefits — a burden common to other large vendors, which is in stark contrast to the higher scores of small vendors with simpler BI tools.
  • Although MicroStrategy has comparatively moderate administration costs per user compared with its competitors, its customers report above-average license and implementation costs per user. Moreover, "cost of software" is cited by its customers as the No. 1 product limitation to broader deployment — more frequently than for all other vendors in this year's Magic Quadrant survey (except Alteryx). Adopting MicroStrategy's Cloud Platform offering may be a way to address the issue and grow users at a lower overall cost. By bundling the different BI platform components — MicroStrategy's BI tools, partners' ETL and database software tools, and hardware and management services — customers will gain bargaining power to demand savings, but they will need to avoid vendor lock-in situations that may impact them in the future.
  • MicroStrategy's high-end halo can be a liability in an unstable economy, with companies less keen for enterprisewide initiatives and searching for more cost-efficient solutions — often business-driven departmental deployments. Visual Insight and MicroStrategy Mobile are a good fit for this purpose, but the need to also deploy core BI platform components, with their associated price tags and complexities, will reduce MicroStrategy Mobile's appeal. As a result, MicroStrategy — when acting as an all-or-nothing option — will struggle to find a position as a complementary tool in companies with competitors' platforms; in turn, it will see smaller vendors — namely from the data discovery space — do the same to its own customer base.
  • MicroStrategy Express is a clear answer to both of these problems, but it remains to be seen whether MicroStrategy and its IT and corporate-focused sales force will be able to succeed in a business-managed, departmental BI market.
  • Conversely, the company continues to sell predominantly to IT, which has a stack-centric buying tendency. Megavendors offering end-to-end BI, CPM, packaged analytic applications and integration middleware optimized for their specific enterprise applications and technology stacks are at an advantage over MicroStrategy when stack optimization is an important purchasing criterion. MicroStrategy's focus on BI platforms excludes it from consideration, particularly in enterprise BI standardization projects wherein buyers are looking for single-stack optimizations with the existing information and application infrastructure.
  • This year's Magic Quadrant has a reinforced focus on analytic capabilities beyond descriptive and diagnostic analytics, which hurts MicroStrategy's position in Completeness of Vision and Ability to Execute. The lack of a noticeable focus on predictive and prescriptive analytics narrows MicroStrategy's breadth of use (which is already below average) to mostly reporting and dashboarding, lowers its complexity of use cases and will ultimately reduce its relevance for organizations. Although the company offers native data mining capabilities free of charge, and has delivered R language integration since January 2012, these features continue to be ignored by customers. MicroStrategy has the lowest usage of predictive analytics of all vendors in the Magic Quadrant. A reason for this behavior might be the user interface that is overfocused on report design conventions and lacks proper data mining workbench capabilities, such as analysis flow design, thus failing to appeal to power users. To address this matter, MicroStrategy should deliver a new high-end user interface for advanced users, or consumerize the analytic capabilities for mainstream usage by embedding them in Visual Insight.
  • After several quarters of good financial results, MicroStrategy had a sharp decline in sales execution in 3Q12. Changes in the sales management might be the issue that affected the company's performance, because it is difficult to establish a correlation with any other relevant fact that may be hurting MicroStrategy's position in the market. If the assumption is correct, then we should see a rebound in results in 2013, and MicroStrategy's Ability to Execute in the Magic Quadrant will also recover.


  • Oracle Business Intelligence Foundation Suite, with its principal component Oracle Business Intelligence Enterprise Edition (OBIEE), is an IT-driven, unified metadata-centric BI and analytics platform that's best suited for building large, IT-managed and centrally governed global deployments in which a broad range of BI, advanced analytics and CPM functionality from a single platform and optimization with the Oracle stack are top requirements. OBIEE customers report among the largest average deployment sizes in terms of users, data and company size, with an above-average number of respondents viewing OBIEE as their enterprise BI standard.
  • Customers choose Oracle because of its integration and optimizations with the broader Oracle stack, which are key differentiators that underpin Oracle's BI and analytics value proposition, particularly within the Oracle installed base. Specifically, Oracle BI offers more than 80 prebuilt analytic applications for Oracle E-Business Suite (EBS), PeopleSoft, JD Edwards, Siebel, Fusion (on-premises and in the cloud) and other enterprise applications, including a range of domain and industry-specific packaged analytic applications. These analytic applications include prebuilt ETL, data warehouse models, KPIs, reports and dashboards. OBIEE's analytics optimizations with Oracle Essbase and the Hyperion Enterprise Performance Management System enable customers to implement an end-to-end analytic process for the financial budgeting, planning, consolidation and close processes. OBIEE analytics optimizations with Oracle middleware and Oracle SOA Suite components, Oracle BPM for BPEL, provide integration with action links and workflow within Oracle EBS to support closed-loop insight to action analytics processes. Moreover, Oracle has planned integration between OBIEE, Oracle Complex Event Processing and Oracle Real-Time Decisions to support real-time event detection and analysis. As evidence of Oracle's strong stack value proposition, OBIEE customers in the Magic Quadrant survey choose Oracle more often than most other vendors in the survey because of its integration with enterprise applications and with the information management infrastructure (database and middleware). Furthermore, 54% of OBIEE customers have Oracle EBS as their primary ERP system (almost 3.5 times the survey average), while 80% report using the Oracle Database as their primary data warehouse (more than 2.8 times the survey average).
  • In addition to Oracle software stack optimizations, Oracle's newest engineered system, Exalytics In-Memory Machine, provides an optimized hardware and software configuration that includes OBIEE, Oracle Essbase, Oracle Endeca Information Discovery, and in-memory software (based on Oracle's acquisition of TimesTen) designed for large and complex analytics workloads, including dynamic planning and what-if and scenario analysis.
  • Oracle has long been a leader in information management and analytics for structured, mostly enterprise transaction data, but Oracle's 2011 acquisition of Endeca — now called Oracle Endeca Information Discovery — demonstrated product vision and commitment to the growing importance and potential value to Oracle customers of incorporating, relating and analyzing unstructured data for new insights. While Oracle Endeca Information Discovery platform immediately filled a gap for Oracle in business-user-oriented search-based data discovery, the more strategic road map for Oracle is to integrate Endeca assets for analyzing diverse data into Oracle's core information management, middleware and enterprise applications stack, which was recently done with EBS Extensions for Oracle Endeca. Moreover, Oracle introduced the Oracle Big Data Appliance for NoSQL and Hadoop support. OBIEE customers appear to buy into this vision, with more than 22% of them — among the highest in the survey — reporting plans to deploy content analytics in the next 12 months.


  • While Oracle offers business user search-based data discovery with the Endeca Information Discovery platform, it has been slower than its megavendor competitors to deliver business user data mashup and interactive visualization capabilities within OBIEE. Even though some additional interactive capabilities are enabled by the combined in-memory and enhanced Essbase features in Exalytics, Oracle customers rate its interactive visualization functionality in OBIEE near the bottom of the survey. Because of this limitation, as well as longer than average report development times, Oracle continues to score near the bottom of the survey for ease of use for end users and ease of use for developers. These survey results do not appear to reflect the enhancements Oracle has made to its interactive visualization capabilities in its latest releases of OBIEE and in Exalytics, since more than half of Oracle's survey respondents are not upgraded to the latest releases. Users may find improved ease of use when they upgrade.
  • Oracle has been slower than most of its competitors to deliver mobile analytics with broad device support. Mobile capabilities are currently limited to iOS devices, although Android and Windows support is on the road map. This delay appears to have caused latent demand in the OBIEE installed base, as Oracle has the highest percentage of any vendor with customers that plan to adopt mobile in the next year. Since no additional development is necessary for deploying Oracle Business Intelligence Mobile, this will facilitate adoption.
  • Oracle's customer experience ratings, which include support and product quality, as well as sales experience and performance scores, continue to be a chronic weakness. They have been consistently low for the third year in a row — and the same has been true for most of the other megavendors — with scores near the bottom of the survey. While Oracle and the other megavendors tend to have the largest and most complex global deployments, which can contribute to the relatively harsh customer assessments, other vendors with similarly large and complex deployments (like Information Builders and MicroStrategy) tend to consistently, year after year, fare much better.
  • Oracle offers a broad suite of relatively integrated, functional capabilities, placing it in the top quartile of 38 organizations surveyed for this Magic Quadrant research — when assessing the number of individual features and functions delivered by Oracle. However, an assessment of the extent to which these features meet requirements shows that customers give Oracle an aggregate product rating of below average, with a rank of 34 out of 38 vendors, with all 14 capabilities receiving a below-average functional rating score. Dashboard capabilities were the highest rated out of the 14 functional areas assessed by Gartner, with more than 65% of OBIEE customers using it extensively.
  • OBIEE is primarily used for systems of record, static and parameterized reporting, as well as dashboards centrally developed by IT and delivered to report consumers, leading to a below-average complexity of user analysis ratings. OBIEE customers report that, on average, 70% of OBIEE users are consumers or casual business users, with 86% of users viewing static or parameterized reports. While Oracle offers data scientist and developer-oriented predictive and prescriptive analytics capabilities that are similar to deployment patterns in the broader market, they are not widely adopted. Making more complex types of analysis and advanced analytics more broadly accessible to business users is a major driver of growth in the BI market — a trend that Oracle has been slower to fully address than other stack vendors.


  • QlikView, QlikTech's product, is a market leader in data discovery, a segment of the BI market it pioneered. QlikView is a self-contained BI platform, based on an in-memory data store and newly added direct query access (currently to Teradata, Google BigQuery and Cloudera, with more sources to come in the near future), with a set of well-integrated BI tools.
  • Customers choose QlikView because of its intuitive interactive experience — most often deployed in dashboards — that enables business users to freely explore and find connections, patterns and outliers in data without having to model those relationships in advance. QlikTech earned top rankings for the percentage of customers that choose the platform for ease of use for end users, with an above-average percentage selecting QlikView for ease of use for development, and the highest percentage of customers of any vendor choosing QlikView because of implementation cost and effort.
  • QlikView's ease of use is coupled with above-average complexity of the types of analysis users can conduct with the platform, and an above-average breadth of functionality used.
  • QlikTech's customers also report achieving above-average business benefits, particularly in making better information available to more users and in expanding the type of analysis undertaken. This powerful combination of advantages has been a key driver of data discovery vendor success in general, and of QlikView in particular.
  • QlikView's interactive experience is enhanced by its in-memory computing model. QlikView customers report near the top of the survey's performance scores (albeit on smaller-than-average data sizes), although this differentiator is narrowing since most of the BI vendors now deliver in-memory capabilities.
  • QlikView customers have a positive view of seven out of 14 functional capabilities rated in the Magic Quadrant survey, including reporting, ad hoc analysis, dashboards, interactive visualization, scorecards, search-based data discovery and mobile BI. The top reasons for choosing QlikView are: (1) functionality; (2) ease of use for end users; and (3) performance. A positive product experience has contributed to QlikView customers having a positive view of its future. QlikView has among the smallest percentage of customers that plan to discontinue using the product in the future, and report among the top success scores — which are defined as expanded user deployments — of any vendor in the survey.
  • QlikTech's acquisition of Expressor and the subsequent release of QlikView's Governance Dashboard give QlikView customers a way to identify and resolve the use of multiple definitions deployed across existing QlikView applications, and to create reusable metadata components for new development. The lack of these capabilities had often prevented it from being considered as an enterprise standard, and from winning large enterprise deals. Now, QlikView has a compelling approach to govern data definitions without sacrificing business user development flexibility to build applications, and without having to wait for centralized IT to first build a semantic model. This was also a necessary addition to QlikView's portfolio to compete against the enterprise IT-centric BI vendors, which have added data discovery features to their platforms.
  • QlikTech, which was founded in Sweden, has been successful at globally expanding its market reach and awareness beyond its traditional stronghold in Europe to North America. It has also been successful at growing regions in Asia/Pacific and Latin America. QlikTech has a large and global partner ecosystem, particularly when compared with its stand-alone data discovery vendor peers.


  • Customers most often select QlikView for ease of use for end users, particularly for interactive dashboards; however, the visual-based interactive exploration and analysis capabilities, experience, and time to business user authoring proficiency are generally viewed as inferior to those of its stand-alone data discovery competitors, Tableau and Tibco Spotfire. The next major release of QlikView, which is due for launch in 2013, places major emphasis on addressing this competitive limitation with a major design theme focused on delivering a "gorgeous and genius" experience. While a major update to the platform will help QlikTech better compete against the stand-alone data discovery vendors, as well as against the enterprise features of the traditional BI players (for example, Microsoft, SAP, IBM, Oracle, Information Builders and MicroStrategy), it is not without the risk of disruption for customers at a time when QlikTech is also facing a more intense competitive landscape from these same vendors.
  • While Gartner estimates that the data discovery segment grew at three times the rate of the overall BI market in 2011, and QlikView was the leader in this segment, data discovery capabilities are now becoming mainstream. The market is more crowded with existing, stand-alone vendors becoming more competitive, new vendors emerging, and all leading BI vendors having added data discovery capabilities to their IT-centric platforms in 2012 as an integrated, and often bundled, license-cost-free feature, with the intent of narrowing QlikView's (and the other stand-alone data discovery vendors') opportunities for expansion.
  • Enterprise readiness and user scalability are ongoing concerns. QlikView earned below-average customer survey scores on enterprise features, such as metadata management (we expect this assessment to improve as adoption of Expressor spreads among QlikView customers), BI infrastructure and BI development tools. Additionally, customers and implementers continue to express concerns over QlikView facilities for managing security and administering to large numbers of users. Scaling QlikView to more users, larger data sizes and more complex dashboards is directly correlated with hardware resources, such as RAM and processing power. While QlikView user deployment sizes and average data sizes continue to increase, they are still below the survey average and below its data discovery competitors. QlikView data sizes, although slightly up from last year, may have been limited by QlikView's in-memory-only approach versus competitors that could directly query and bring in data from warehouses well before QlikView's recent Direct Discovery capability was available. With QlikView's newly added capabilities, data scalability should increase, while QlikTech's acquisition of Expressor should address metadata concerns. Moreover, the rearchitected version of QlikView that's planned for 2013 is intended to significantly enhance a range of enterprise development and scalability features.
  • Customer experience results, while improved from last year, are a mixed bag. QlikView earned positive product quality scores, and a smaller percentage of customers reported problems with the software, which resulted in an overall above-average customer experience score. However, QlikView continued to suffer from just below the survey average (third quartile) support scores. Similarly, sales experience continues to be below the survey average. Gartner inquiries suggest that the direct sales team is often perceived as inflexible and unresponsive. We continue to believe that these results can partly be affected by QlikView's rapid growth, since support and sales proficiency are highly correlated with length of tenure.
  • High growth means a larger percentage of relatively new sales and support people. However, we expect to see continued improvement next year (as we did this year) as QlikTech scales its processes to support growth, a broader partner channel and expansion into larger enterprise deployments.
  • QlikView customers often express concerns over the scalability of its predominantly named user pricing model. Cost of software is reported as the largest barrier to broader deployment by companies that have implemented QlikView. While named user pricing has the advantage of giving every QlikView user access to full authoring capability, it is relatively costly on a per-user basis for a very large number of users when compared with many competing alternatives. This pricing model well-supported QlikTech's departmental "land and expand" sales approach, which allowed the company to add 100 seats at a time, department by department, with minimal discounting. However, as QlikTech seeks more enterprise deals, and as procurement departments begin to manage QlikView purchases across departments, the pressure to discount has increased. Despite its strong market position and compelling value proposition, it is likely to be increasingly difficult for QlikTech to defend its premium price position as it competes for larger deals, and as competition from bundled enterprise alternatives intensifies.
  • QlikView users reported among the longest report development turnaround times — particularly for building large, complex reports from various data sources, involving detailed logic and calculations — of any vendor in the Magic Quadrant. We expect this to improve as the next version of QlikView rolls out more enterprise features targeted at developer efficiencies, and as more of its customers adopt Expressor and take advantage of reusable metadata components, rather than having to script the data integration for each QlikView application.
  • A below-average percentage of users claim they are using QlikView for static reporting, indicating that this falls outside of QlikView's sweet spot. Customers that need a range of systems of record reporting and interactive dashboards and visualization from a single tool are less likely to choose QlikView.


  • SAP is the global market share leader of the BI and analytics platforms market. Its large customer base is indicative of future maintenance revenue, which can be allocated to R&D and merger-and-acquisition initiatives to drive products forward. SAP's market share dominance shows in its high proportion of large enterprise deployments. SAP customers average twice as many users as the market average across all vendors. SAP is frequently cited by customers as the enterprise standard BI and analytics platform. SAP's propensity to be the enterprise standard extends to the breadth of deployment. When asked how extensively this BI vendor is deployed — from departmentally to globally deployed — SAP ranked No. 1 across all 38 vendors surveyed in Gartner's most recent customer survey.
  • Based on evidence from Gartner inquiries, SAP closed a significant number of multimillion dollar deals in 2012. Its substantial commercial success is largely due to its product marketing efforts targeting the SAP enterprise application base, as well as its capabilities for large enterprise deployments, as indicated in the survey. The aggressive bundling and stack-centric messaging has resulted in strong product sales. Compared with the average across all vendors, three times the percentage of SAP customers cited "integrates with enterprise applications" as one of the top reasons for choosing the vendor.
  • SAP has one of the largest global direct sales, support, channel and service ecosystems. The major system integrators all have large SAP and BusinessObjects practices. This strength will be particularly helpful as SAP applies its BI solutions to specific industry business processes and domain-specific analytic applications. It also provides access to skills on a global basis for different industries and companies of different sizes. Access to people (internal or external) who know SAP BW or BusinessObjects is rarely difficult. SAP scored well-above average, compared with other vendors, when customers were asked if access to skills was one of the most important reasons for choosing the vendor.
  • SAP responded to the market's changing dynamics by investing in a nascent data discovery offering, SAP Visual Intelligence. This was initially limited to just Hana as a data source, but is now able to access a variety of data sources, and to take advantage of SAP's data acquisition, enrichment, and transformation capabilities, which were designed for ease of use by mainstream business users.
  • While it has been in the mobile BI space for more than 10 years, in 2012, SAP enhanced its mobile experience with geospatial and camera capabilities, enabling users to view information in camera view over the visual representation. SAP offers an integrated mobile BI toolkit so that developers can leverage the SAP Mobile Platform, (formerly known as Sybase Unwired Platform), thereby offering customer mobile analytics app design, device management and device security. Also, with the latest release of SAP BusinessObjects BI 4.0 Feature Pack 3 (FP3), SAP offers full 2-way integration of SAP StreamWork into the BI platform, allowing users to see decisions in which BI content is being leveraged and request participation, or to follow the progress if they are already included.
  • SAP Predictive Analysis, introduced in 2012, bolstered its predictive analytics offering by integrating analytical capabilities already built in R with the real-time and in-memory capabilities of Hana to create some new, advanced analytic use cases. By leveraging its Data Services integration with Hadoop, Hive and other big data processing and map-reduce technologies, SAP is able to store this information inside SAP Hana and provide analytic applications on top, including CO-PA Accelerator, Customer Segmentation Accelerator, and Business Planning and Consolidation.


  • When respondents were asked which product-specific limitations were barriers to wider deployment, more SAP respondents cited software quality than for any other vendor. Of all SAP's references, 20.17% cited this limitation, compared with an average of 6.2% across all vendor references. When asked about problems with the software, a greater percentage of SAP references cited "unreliable, unstable and/or buggy" than for any other vendor in the Magic Quadrant. Much of this poor product quality can be attributed to the challenge of integrating and supporting multiple code bases, such as BW, Web Intelligence, Crystal Reports and Dashboards. However, there is significant improvement within references running later versions. For example, 29.63% of SAP BusinessObjects XI 3.1 references cited this problem, compared with just 16.67% of SAP BI 4.0 FP3 references.
  • In addition to poor product quality, customers have complained about unsatisfactory support. In our latest survey, SAP ranked last in customer experience and sales experience. Unfortunately for SAP customers, it isn't a matter of just one bad year, because SAP has consistently ranked at or near the bottom of customer support since Gartner started this series of surveys in 2008. However, there has been some improvement. SAP BusinessObjects XI 3.1 references averaged 4.32 (on a scale of 1 through 7) for its support rating, compared with an average of 5.0 among SAP BI 4.0 FP3 references. Nevertheless, both groups scored below the 5.71 average across all vendors' references. The same is true for the sales experience score. SAP BusinessObjects XI 3.1 references averaged 4.15 (on a scale of 1 through 7), compared with an average of 4.94 for SAP BI 4.0 FP3 references. While there was improvement, again, both groups are well below the 5.77 average across all vendors' references.
  • When compared with other vendors in the survey, SAP scored below average across all 15 BI platform capabilities evaluated during the Magic Quadrant research process. Of those capabilities, SAP BusinessObjects customers identified reporting and ad hoc query functionality as the platform's top strengths. SAP customer references using SAP BI 4.0 FP3 scored product functionality and overall product satisfaction much higher than SAP customers that were not running the very latest release. For example, references running 4.0 FP3 rated SAP's ad hoc query capability 8.75 on a scale of 1 through 10, compared with references running SAP BusinessObjects XI 3.1, which rated ad hoc query only 7.74 on the same scale. Microsoft Office integration was rated 8.10 across all SAP BI 4.0 FP3 references, compared with SAP BusinessObjects XI 3.1 references, which rated this capability 7.05. Comparing references across versions also saw a wide variance for the mobile BI capability. SAP BusinessObjects XI 3.1 references rated this capability 5.9, while SAP BI 4.0 FP3 references rated it 8.10.
  • This pattern of SAP's FP3 references scoring better than SAP's legacy customers (but still below the industry average) occurs in several other areas. For example, when references were asked about complexity of migration on a scale of 1 through 4 (with 4 being the most complex), SAP BusinessObjects XI 3.1 references scored 2.67, compared with SAP BI 4.0 FP3 references, which scored 2.06 (lower is better, but still below the industry average of 1.65 across all vendors' references). When asked about the average number of days to create a report, SAP BusinessObjects XI 3.1 references averaged 6.77 days, compared with 5.43 days for SAP BI 4.0 FP3 references. Keep in mind that the overall average across all vendors' references was just 3.95 days. 


  • SAS's portfolio includes tools in areas such as BI, performance management, data warehousing and data quality; however, unlike most other BI platform vendors, SAS primarily focuses on advanced analytical techniques, such as data mining and predictive modeling, where references acknowledge it as a leader. SAS's clients report the use of large datasets and perform analysis with above-average complexity. They also access and interpret unstructured internal and external data more often than most vendors' clients surveyed for this Magic Quadrant. Such positioning benefits SAS in this year's Magic Quadrant, where basic BI capabilities got a lower weighting than in previous years.
  • SAS gets high marks for its global footprint and broad industry initiatives. The solution-oriented analytic application approach to the market is a differentiator, giving the company the advantage of having a wide variety of cross-functional and vertically specific analytic applications out of the box for a wide variety of industries, including financial services, life sciences, retail, communications and manufacturing. Thus, SAS's sales processes can be diverted from tool features and price comparisons to a discussion of potential business value of solutions and industry expertise. While others are also adopting this approach, SAS remains in the lead.
  • In 2012, SAS announced Visual Analytics, the new data discovery product that merges dashboard design with diagnostic analytics and the use of predictive models — a possibility not yet available in some of its competitors' tools. Visual Analytics also provides mobile BI capabilities — a gap that, until now, had been resolved through a partnership with MeLLmo Roambi. Moreover, it is the first visible result of a comprehensive initiative to standardize user interfaces and to better integrate the product portfolio — an area where SAS scores lower than most other vendors in the Magic Quadrant survey. For SAS, it's also a key instrument to reach beyond analytics experts to a more mainstream audience, thereby preventing competitors' data discovery tools from doing so on its customer base. With the aggressive pricing and strong push being made by the company on what looks a promising product, we expect to see good customer adoption in the coming months.
  • Data access and integration and the capability to support large volumes of data are the primary drivers for adoption, according to the survey. SAS's recent efforts around its High-Performance Analytics Server for in-memory, in-database and grid computing analytics will likely reinforce this trend. Availability of skills is also cited — the result of a wide and loyal user base, many of whom have built careers around these products. A broad sales and service ecosystem, coupled with above-average results on sales relationship and positive survey references for product road map and future vision, will continue propelling SAS. Reference customers confirm this by predicting a positive outlook for SAS's success within their organizations, as well as in the market as a whole.


  • References continue to report that SAS is very difficult to implement and use — it was the No. 3 vendor in both categories. Aggravating this, although it has a worldwide network of support centers and an extensive list of service partners, SAS's customer experience and product support are in the lower quartile of vendors in the Magic Quadrant. A revision of user interfaces and an enhancement of product integration is under way to help improve the customer experience, but SAS must also improve its level of service — including level of expertise, response time and time to resolution.
  • SAS's dominance in predictive analytics and statistics continues to be challenged on many fronts. IBM is still the main challenger with SPSS and other analytic assets, but wide support of open-source R by large competitors, such as Oracle, SAP and other smaller vendors, will be the most serious threat in the long term. R is challenging SAS for the title of standard coding language for analytics, and is increasingly considered a credible alternative by professionals in the market, eroding SAS's dominance in the analytics community. Other vendors, such as Kxen (not included in this Magic Quadrant), Prognoz, Alteryx or Tibco, are additional sources of competition as more customers adopt analytics. These hardened challengers may not be a severe problem for SAS, however. The growing analytics market is a "rising tide" for every participant, and SAS, being the experienced leader, will be able to capture a significant share of it.
  • Customer references report that cost is the most common factor blocking further adoption, and they cite low results in the achievement of business benefits. Moreover, they mention — three times more than the average — the inability to gain user buy-in to an enterprise approach. With more options available, these factors may lead to a growing adoption of tactical analytics solutions from smaller vendors. SAS should remain responsive to customers and prospects in these areas.
  • Despite SAS's success and awareness as a leader in the predictive analytics space, the company is still challenged to make it onto BI platform shortlist evaluations when predictive analytics is not a primary business requirement. It's significant that less than 50% of references — compared with 60% from last year — indicated that SAS was their company's BI standard. Functionality used in traditional BI areas (reporting, dashboards, OLAP and so on) was lower than for other BI leaders in this research. Like last year, ad hoc query remains the one exception, with clients aggressively using SAS BI for that component.


+ نوشته شده توسط خشایار جام سحر در سه شنبه بیست و چهارم بهمن 1391 و ساعت 2:38 بعد از ظهر |

‌Big Data Tools 2012:

  1. Amazon Web Services (AWS) Elastic MapReduce
  2. Cloudera Distribution for Hadoop v. 3.x
  3. Datameer Analytics Solution
  4. DataStax Brisk
  5. EMC Greenplum HD Enterprise Edition
  6. Hortonworks
  7. HStreaming Enterprise
  8. IBM InfoSphere BigInsights V1.2, Netezza Analytics
  9. MapR
  10. Outerthought
  11. Pentaho Data Integration
  12. Platform Computing MapReduce
  13. Zettaset Data Platform
+ نوشته شده توسط خشایار جام سحر در شنبه هفتم بهمن 1391 و ساعت 2:54 بعد از ظهر |

Best Jobs For 2013 (By Susan Ricker)

  1. Software developer (applications and systems software
  2. Accountant and auditor
  3. Market research analyst and marketing specialist
  4. Computer systems analyst
  5. Human resources, training and labor relations specialist
  6. Network and computer systems administrator
  7. Sales representative (wholesale and manufacturing, technical and scientific)
  8. Information security analyst, Web developer and computer Network architect
  9. Mechanical engineer
  10. Industrial engineer
  11. Computer programmer
  12. Financial analyst
  13. Public relations specialist
  14. Logistician
  15. Database administrator
  16. Meeting, convention and event planner
  17. Cost estimator
  18. Personal financial adviser


the 10 most critical job skills to parlay in your job search for 2013:

  1. Critical Thinking
  2. Complex Problem Solving
  3. Judgment and Decision-Making
  4. Active Listening
  5. Computers and Electronics
  6. Mathematics
  7. Operations and Systems Analysis
  8. Monitoring
  9. Programming
  10. Sales and Marketing

+ نوشته شده توسط خشایار جام سحر در چهارشنبه بیست و نهم آذر 1391 و ساعت 12:36 بعد از ظهر |

Data Warehouse Project Data jobs:

1. Big Data Analytics
2. Business Data Analyst
3. Business Data Expert
4. Change Data Capture
5. Conceptual/Logical/Physical Data Designer
6. Data Acquisition Manager
7. Data Administrator
8. Data Analysis Manager
9. Data Analysis/Analyst
10. Data Analytics Architect
11. Data Analytics Consultant
12. Data Analytics Manager
13. Data Architect
14. Data Build Engineer
15. Data Cleansing
16. Data Consultant
17. Data Conversion Analyst
18. Data Conversion Consultant
19. Data Conversion Manager
20. Data Conversion Specialist
21. Data Entry Administrator
22. Data Entry Analyst
23. Data Entry Clerk
24. Data Entry Technician
25. Data Governance Consultant
26. Data Governance Manager
27. Data Governance Specialist
28. Data Integration Analyst
29. Data Integration Architect
30. Data Integration Consultant
31. Data Integration Developer
32. Data Integration Specialist
33. Data Integrity Analyst
34. Data Integrity Manager
35. Data Integrity Project Manager
36. Data Integrity Specialist
37. Data Manager
38. Data Mapping
39. Data Mart Analyst
40. Data Mart Consultant
41. Data Mart Developer
42. Data Mart Specialist
43. Data Migration Analyst
44. Data Migration Consultant
45. Data Migration Engineer
46. Data Migration Manager
47. Data Migration Specialist
48. Data Mining Analyst
49. Data Mining Consultant
50. Data Model Consultant
51. Data Model Manager
52. Data Modeller
53. Data Network Administrator
54. Data Network Analyst
55. Data Network Engineer
56. Data Planning Engineer
57. Data Processing Manager
58. Data Programmer
59. Data Protection Analyst
60. Data Quality Analyst
61. Data Quality Consultant
62. Data Quality Manager
63. Data Quality Project Manager
64. Data Quality Specialist
65. Data Security
66. Data Stewardship
67. Data Storage Administrator
68. Data Storage Analyst
69. Data Storage Consultant
70. Data Storage Engineer
71. Data Storage Manager
72. Data Storage Specialist
73. Data Transcript Engineer
74. Data Validation
75. Data Visualisation
76. Data Visualisation Specialist
77. Data Warehouse Analyst
78. Data Warehouse Architect
79. Data Warehouse Consultant
80. Data Warehouse Developer
81. Data Warehouse Manager
82. Data Warehouse Officer
83. Data Warehouse Project Manager
84. Data Warehouse Specialist
85. Data Warehouse Test Analyst
86. Enterprise Data Architect
87. Enterprise Data Management
88. ETL Expert
89. Fraud Data Analyst
90. Fund Data Analyst
91. GIS Data Analyst
92. Lead Data Architect
93. Linked Data
94. Market Data Analyst
95. Market Data Business Analyst
96. Market Data Engineer
97. Market Data Infrastructure Analyst
98. Market Data Manager
99. Market Data Project Manager
100. Market Data Software Engineer
101. Market Data Specialist
102. Market Data Support Analyst
103. Market Data Support Engineer
104. Marketing Data Analyst
105. Master Data manager
106. Reference Data
107. Reference Data Business Analyst
108. Senior Data Analyst
109. Senior Data Architect
110. Senior Data Modeller
111. Senior Data Warehouse Analyst
112. Senior Data Warehouse Architect
113. Senior Data Warehouse Consultant
114. Senior Data Warehouse Developer
115. Senior Data Warehouse Manager
116. Senior Data Warehouse Project Manager
117. Senior Data Warehouse Specialist
118. Senior Market Data Engineer
119. Statistical Data Analyst
120. Test Data Analyst

نگارنده: خشایار جام سحر

+ نوشته شده توسط خشایار جام سحر در چهارشنبه بیست و دوم آذر 1391 و ساعت 11:5 قبل از ظهر |

The Top 10 Strategic CIO Issues For 2013

  1. Simplify IT and Transform Your Spending: Kick the 80/20 Budget Habit.
  2. Lead the Social Revolution: Drive the Social-Enabled Enterprise.
  3. Unleash Your Company’s Intelligence: Create the Enterprise-Wide Opportunity Chain.
  4. Embrace the Engagement Economy: Merge the Back Office and the Front Office into the Customer Office.
  5. Future-Proof Your IT Architecture.
  6. Upgrade “Cloud Strategy” to “Business Transformation Enabled by the Cloud.”
  7. Transform Big Data into Big Insights, Big Vision, and Big Opportunities.
  8. Preside over a Shotgun Wedding: Systems of Record Marry Systems of Engagement.
  9. Lead with Speed: CIO as Chief Acceleration Officer.
  10. Bend the Value Curve: More Innovation, Less Integration.


+ نوشته شده توسط خشایار جام سحر در دوشنبه سیزدهم آذر 1391 و ساعت 12:33 بعد از ظهر |

بسیاری از سازمان‌های ایرانی در حال حاضر سیستم‌های اطلاعاتی پایه مانند حسابداری، انبار، حقوق، فروش را بخوبی عملیاتی كرده‌اند. اما علیرغم وجود گزارش‌های مفید در سطوح عملیاتی و مدیران میانی، مدیران ارشد معمولا بطور بدون واسطه از گزارش‌های سیستمی استفاده نمی‌كنند. دلیل این امر حجم زیاد اطلاعات و عدم تلفیق و تحلیل اطلاعات سیستم‌های مختلف است. هوشمندی تجاری (Business Intelligence) مجموعه‌ای از ابزارها و تكنولوژی‌های نوین برای یكپارچه‌سازی، تحلیل و نمایش اطلاعات است كه بمنظور تسریع و بهینه‌سازی فرآیند تصمیم‌گیری سازمانی مورد استفاده قرار می‌گیرد .

اطلاعات به سرمایه بسیار باارزشی برای سازمان‌ها تبدیل شده است. پیاده‌سازی سیستم‌های مدیریت عملكرد و هوشمندی كسب و كار (Business Intelligence) مسیری است كه امروزه سازمان‌ها برای استفاده مناسب از این سرمایه سازمانی، طی می‌كنند. داشبوردهای سازمانی انبوه اطلاعات موجود در سازمان را خلاصه كرده و متناسب با نیاز هر مدیر در اختیار او قرار می‌دهند. مزیت اصلی داشبوردهای سازمانی استفاده از سمبل‌ها و شكل‌های گرافیكی ساده است كه براحتی مدیران را در یافتن مسایل و مشكلات موجود راهنمایی می‌كنند. سازمان‌های كشور غالبا در گام اول بلوغ هوشمندی كسب و كار هستند و مدیران ارشد سازمان‌ها علی‌رغم وجود اطلاعات جزیی در سیستم‌های اطلاعاتی سازمان‌شان به ناچار از گزارش‌هایی كه بصورت دستی خلاصه‌سازی یا تحلیل شده‌اند، برای پایش وضعیت سازمان‌شان استفاده می‌كنند. مشكلات اصلی این روش زمان‌بر بودن تهیه گزارش‌های تحلیلی و پایین‌بودن سطح كیفیت اطلاعات برای تصمیم‌گیری‌های مهم سازمانی است.

سازمان شما برای انجام عملیات و فعالیت‌های روزمره خود به سیستم‌های اطلاعاتی متكی است. مشاهده و تحلیل تمامی اطلاعات و گزارش‌های جاری در این سیستم‌ها كار بسیار دشوار و در اغلب موارد ناممكن است. شناسایی اطلاعات كلیدی برای تصمیم‌گیری و ایجاد یك فرآیند ساختاریافته برای كسب مستمر آن، رمز موفقیت شما در بهبود عملكرد سازمان است. هدف این راهكار استفاده از انبوه اطلاعات موجود در سطوح عملیاتی سازمان و كمك به افزایش هوشیاری لازم برای تصمیم‌گیری و مدیریت سازمان است. 
استفاده از شاخص‌های كلیدی عملكرد (Key Performance Indicators) برای پایش كسب و كار، مدیران را قادر می‌سازد تا با توجه به مسئولیت‌ها و اختیارات خود از این ابزار بعنوان اهرمی برای بهبود عملكرد سازمانی استفاده كنند. برنامه‌ریزی، پایش و بهبود عملكرد در وجوه مختلف سازمانی، ابزار تحول سازمانی هستند.

راهكار مدیریت عملكرد اطلاعات كلیدی سازمان از سیستم‌های اطلاعاتی مختلف گردآوری، تلفیق و تحلیل می‌كند و این اطلاعات را در قالب شاخص‌های كلیدی عملكرد بصورت داشبورد سازمانی یا كارت‌های امتیازی متوازن در اختیار مدیریت سازمان قرار می‌دهد. مدیریت درصورت نیاز می‌تواند جزییات مربوط به هر شاخص را تا جزئی ترین سطح مشاهده كند. برای مثال اگر شاخص رشد دآمد وضعیت مطلوبی نداشته باشد، مدیر می‌تواند روند فروش را به تفكیك محصول، گروه مشتری، منطقه جغرافیایی، مركز فروش و غیره مشاهده كند و به ریشه‌یابی و اصلاحات لازم برای بهبود وضعیت بپردازد.
دستاوردهای استقرار موفق راهكار مدیریت عملكرد بشرح زیر است:

  • از دوباره كاری‌ و حجم زیاد فعالیت‌ گردآوری اطلاعات و مدیریت عملكرد اجتناب می‌شود.
  • امور ارزیابی و نظارت بصورت سازمان یافته و برنامه ریزی شده و در حد لزوم انجام می‌شود.
  • وشهای ارزیابی عملكرد منطبق با رویكرد‌های علمی در چهارچوب امكانات موجود شكل می‌گیرد.
  • طلاعات ارزیابی و نظارت بصورت خودكار ، به‌سرعت، با دقت و بموقع جمع‌آوری و ارایه می‌شود.
  • ازیابی اطلاعات مربوط به نظارت‌ها و ارزیابی‌ها از منابع معینی بلافاصله امكانپذیر می‌شود.
  • نظام كنترل مدیریتی و انگیزشی در خدمت ایجاد تحول در جهت اهداف و استراتژی‌ها قرار می‌گیرد.
  • از اعمال نظرهای غیر كارشناسی اجتناب شده و صحت و قابلیت اتكاء به نتایج افزایش می‌یابد.
  • فرهنگ و زبان مشتركی از عملكرد مطلوب و نظام ارزیابی در كل سازمان استقرار ‌می‌یابد.
  • ایجاد و مشاهده شاخص‌های كلیدی عملكرد به صورت گیج، انواع چارت و سمبل‌های گرافیكی دیگر
  • ایجاد و مشاهده گزارشات و مقادیر در جداول به تفكیك‌های قابل تعریف و نامحدود  
  • قابلیت‌های سورت كردن اطلاعات و نمایش اطلاعات خاص مورد نظر مدیر مثلا محصولات پرفروش 
  • تعریف فرمول‌های محاسباتی شاخص‌ها با استفاده از اطلاعات موجود در مخزن داده
  • تعریف و مشاهده اهداف برای هر شاخص بصورت محدوده مطلوب، هشدار و نامطلوب
  • مشاهده میزان انحراف عملكرد واقعی از اهداف عملكردی و برنامه‌ریزی شده
  • تعریف و اعمال حقوق دسترسی مدیران مختلف به اطلاعات مورد نیازشان
  • تعریف صفحات و گزارشات جدید بصورت نامحدود و برقراری ارتباط منطقی بین صفحات
  • قابلیت فیلتر كردن و دسترسی به سطوح پایین‌تر اطلاعات در صورت نیاز
  • قابلیت‌های متعدد برای پیكربندی داشبورد مدیریتی متناسب با نیاز‌های هر مدیر


+ نوشته شده توسط خشایار جام سحر در پنجشنبه یازدهم آبان 1391 و ساعت 12:51 بعد از ظهر |

12 Criteria for Selecting the Best ERP System Replacement:

Criteria #1–A Future Proof Decision
Criteria #2–Rock-Solid Solutions
Criteria #3–Replacement Know-How
Criteria #4–Elimination of Implementation Guesswork
Criteria #5–Tailor-Made Business Fit
Criteria #6–Industry Expertise
Criteria #7–Sound Financial Foundation
Criteria #8–Stacking the Technology Odds in Your Favor
Criteria #9–A Testament to Scalability
Criteria #10–Community Collaboration: Maximizing Customer Moments Of Truth
Criteria #11–Integrity and Dedication
Criteria #12–Delivering Return on Investment

Source: Epicor Software Corporation (

+ نوشته شده توسط خشایار جام سحر در سه شنبه دوم آبان 1391 و ساعت 7:27 بعد از ظهر |

سیستم ذخیره سازی هدوپ (Hadoop) چیست ؟
آیا تاكنون به این اندیشیده اید كه چطور شركت های بزرگی مانند یاهو یا فیسبوك می توانند اطلاعات زیاد و سنگین كاربران خود را نگهداری كنن؟ آیا در مورد سیستم ذخیره سازی كلود شركت هایی مانند گوگل، آمازون و دراپ باكس چیزی شنیده اید؟ بله.. جواب سؤال شما موضوع نوشتارمن می باشد.
 در ساختار كنونی سیستم های ذخیره سازی دادهها كه من آن را سیستم سنتی داده می نامم، شما ذخیره سازی اطلاعات را در یك سرور می بینید كه ایستگاه های كاری از طریق سیستم شبكه كامپیوتری به آن دسترسی خواهند داشت. شركت ها برای گسترش زیر ساخت و ذخیره سازی بیشتر اطلاعات به سرور خود چندین سیستم ذخیره ساز نظیر هاردهای اسكازی یا سس و یا نوار اضافه می كنند اما از پردازشگر و حافظه سرور خود همچنان بطور مركزی استفاده می كنند. این ساختار برای شركت های با حجم پایین كاری پاسخگوست اما آیا فكر می كنید این ساختار پاسخگوی شركت های بزرگی مانند یاهوو با داشتن یكصد و بیست و پنج هزار (تاكنون) سرور می باشد؟ بله درست حدس زدید. در اینجا نیاز به سیستم جدیدی هست كه بتواند قابل اطمینان باشد، از منابع سیستم بخوبی استفاده كند و همچنین قابلیت ترمیم اتوماتیك خود را داشته باشد. هدوپ (Hadoop) یا بهتر بگویم سیستم نرم افزاری انتشاری هدوپ پاسخ به نیاز شركت های بزرگی است كه به دنبال پیاده سازی سیستم كلود برای مشتریان خود هستند. 

هدوپ چیست؟
 هدوپ یك پروژه مبتنی بر برنامه نویسی متن باز است كه توسط سازمان نرم افزاری آپاچی ایجاد شده است. ایده اولیه هدوپ اولین بار در شركت گوگل رقم خورد اما خیلی ها باور به پیاده سازی این سیستم نداشتن و در چند سال اول این ایده تنها بصورت تئوری مطرح بود. هدوپ امكان ذخیره سازی اطلاعات را در چندین سرور ( پی سی) با هزینه ای پایین فراهم می آورد.  كلودرا شركتی است كه بصورت فعال در این زمینه فعال می باشد و بسته نرم افزاری بی نظیر هدوپ را ایجاد كرده و آن را انتشار داده و پشتیبانی می كند.
ساختار كلی هدوپ
 تكنولوژی هدوپ از دو بخش كلی اچ دی اف اس یا سیستم فایل انتشاری هدوپ (Hadoop Distribition File System) و همچنین تكنیك با كیفیت پردازی اطلاعات به نام مپ ریدیوس (MapReduce) استفاده می كند.
ساختار كلی اطلاعاتی در هدوپ بدینگونه می باشد كه اطلاعات توسط سیستم هدوپ شكسته شده و به چندین سرور فرستاده می شود.سرورها بسته به نوع اطلاعات كه ممكن است پردازشی یا ذخیره ای باشد اطلاعات را پردازش یا ذخیره سازی می كنند. در هنگام در خواست اطلاعات مجدد سیستم اطلاعات را از سرور های مختلف گرفته ، مونتاژ كرده و در خروجی نمایش می دهد.
 خوبی این سیستم تهیه نسخه پشتیبان از اطلاعات بصورت خودكار است. هر تكه از اطلاعات در چندین قسمت ( سرور ) ذخیره می شود و در صورت آسیب دیدن یكی از سرورها ، سرور دیگر قادر است مسؤولیت را بر عهده گرفته و اطلاعات مورد نظر را جایگزین كند.

 برای پیاده سازی هدوپ، كمترین تعداد سرور چند عدد است؟
 هرچند پیاده سازی سیستم هدوپ بر روی یك تك سیستم كامپیوتری پیشنهاد نشده است اما نصب و راه اندازی آن تنها برای تست و كسب تجربه روی یك سیستم امكانپذیر است. با توجه به اینكه در این سیستم نیاز به ایجاد نود-سرور هستیم لذا پیشنهاد می كنم در صورتی كه مایل به راه اندازی سیستم ذخیره سازی هدوپ برای سازمان خود هستید از چهار سیستم كامپیوتری ( یك سیستم مركزی و سه نود) استفاده كنید.

 چه شركت هایی نیاز به نصب هدوپ دارند؟
 سیستم هدوپ برای ذخیره سازی و پردازش حجم اطلاعات بسیار بالا طراحی شده است لذا اگر شركت شما در رده شركت های بزرگ ( اینترپرایز)بوده و دارای چندین هزار كارمند و چندین نرمافزار حجیم اطلاعاتی است از این سیستم استفاده كنید.
 منبع: نویسنده: كیانوش مرادیان

مقاله دوم:
چالش اصلی همه حوزه های شبکه یک موضوع است: «Big Data». مفهومی که به تازگی مطرح شده و به طور کلی به افزایش حجم اطلاعات غیرساختارمند و یکپارچه در کنار ذخیره سازی و پردازش آن ها می پردازد. Big Data اکنون چالش اصلی شبکه های گسترده و شرکت های بزرگ است و انواع راهکارهای کلاود، مجازی سازی، محاسبات موبایل، مراکز داده و حتی سیستم های نظارت تصویری و بی سیم را به خود مشغول می کند. در ابتدا این مفهوم و چالش را بررسی می کنیم و بعد به سراغ فناوری ها و حوزه های دیگر دنیای شبکه می رویم. 

Big Data؛ حرکت افزایش اطلاعات
وقتی بحث اطلاعات مطرح می شود باید این نکته را در نظر داشته باشیم که دو نوع اطلاعات داریم: اطلاعات ساختارمند که توسط ماشین های محاسباتی و کامپیوترها تولید شده و اطلاعات غیرساختارمند که توسط انسان ها تولید می شوند. اطلاعات ساختارمند مدیریت و ذخیره سازی به مراتب ساده تر و کم هزینه تری در مقایسه با اطلاعات غیرساختارمند دارند. بیش از نود درصد اطلاعات دیجیتالی در جهان، غیرساختارمند و نامرتب و با سرعت بسیار زیادی در حال رشد و افزایش هستند؛ به طوری که مدیریت آن ها به یک معضل اساسی تبدیل شده و شرکت ها به دنبال ابزارهایی برای کنترل و مدیریت اطلاعات در حجم های گسترده هستند. در چندین گزارش از وضعیت آینده شبکه ها در سال ۲۰۱۲ عبارت Big Data را می توان دید و به جدی بودن این موضوع پی برد. شبکه های اجتماعی یکی از بزرگ ترین تولیدکنندگان اطلاعات غیرساختارمند در شبکه های کنونی هستند. هر شخص روی پروفایل خود ده ها تصویر، فیلم، صوت و اطلاعات دیگر دارد، چون اطلاعات خصوصی هستند، توسط سازمان های بزرگ قابل مدیریت نیستند. این داده ها همچنین، روزانه ترافیک اینترنت را افزایش می دهند. ابزارهای مدیریت اطلاعات غیرساختارمند مختلفی از شرکت هایی مانند Greenplum، IBM، هیتاچی، اوراکل و بنیاد آپاچی در اختیار شرکت ها قرار دارد، اما همگی به یک نوع داده وابسته هستند و نمی توانند داده های مختلف را مرتب سازی کنند. برای نمونه این ابزارها نمی توانند ترافیک داده های تولید شده توسط گوشی های موبایل را کنترل کرده و پوشش دهند. براساس گزارش های منتشر شده، در سال آینده حجم کل اطلاعات دیجیتالی در جهان چهل درصد افزایش خواهد یافت؛ یعنی چیزی حدود ۴/۱ زتابایت افزایش اطلاعات داریم (هر زتابایت تقریباً برابر با هزار اگزابایت است). به همین دلیل، شرکت های بزرگ ارائه دهنده راهکارهای ذخیره سازی و مدیریت اطلاعات نسبت به این موضوع حساس شده اند و درحال بررسی شیوه های مختلف آنالیز و مدیریت اطلاعات هستند. بدون شک، یکی از گزینه های مطرح سرویس های مبتنی بر فناوری کلاود است که البته به قدرت محاسبات بسیار زیادی برای پردازش اطلاعات نیاز دارد.

منبع: میثاق محمدی زاده     ماهنامه شبکه ( www.shabakeh  

+ نوشته شده توسط خشایار جام سحر در دوشنبه یکم آبان 1391 و ساعت 12:5 بعد از ظهر |

تصور شما از حجم انبوهی از داده‌ها چیست؟ یک هزار‌گیگابایت، ده‌ها هزار گیگابایت یا صدها هزار ترابایت! برای سال 2011 می‌توان نام‌های مختلفی یافت: سال شبکه‌های اجتماعی، سال محاسبات ابری، سال تبلت‌ها و تلفن‌های همراه هوشمند، سال سرویس‌های رنگارنگ اینترنتی و بسیاری موارد ریز و درشت دیگر. اما تنها با لحظه‌ای تأمل درخواهیم یافت که استفاده از هر یک از این ابزارهای نرم‌افزاری و سخت‌افزاری، یک نتیجه واحد در بر‌خواهد داشت: تولید داده و اطلاعات در ابعادی باورنکردنی و غیر قابل تصور. آمار و ارقام‌ها حاکی از آن است که در حال حاضر، روزانه 2,5 اگزابایت (1,048,576 ترابایت داده و اطلاعات توسط اشخاص و سازمان‌ها تولید می‌شود و این در حالی است که نود درصد از مجموع داده‌های موجود در جهان تنها در طول دو سال گذشته، یعنی سال‌های 2010 و 2011 ایجاد شده‌اند. پر واضح است که این روند با گسترش روزافزون تعداد کاربران سیستم‌های ارتباطی، بدون وقفه و با شیبی مهار‌ناشدنی ادامه‌یافته و آنچه بیش از هر زمان دیگری اهمیت خواهد داشت، یافتن روش‌ها، ابزارها و مکانیزم‌هایی برای ذخیره‌، بازیابی و تحلیل این حجم از داده به‌شکلی مؤثر و با کارایی بالا است.
رشد فوق‌العاده سریع حجم داده‌ها، اگرچه به‌خودی خود فرآیند ذخیره‌سازی، بازیابی و تحلیل اطلاعات را دشوار و مواجهه با آن را نیازمند ایجاد ابزارهایی جدید می‌کند، اما آنچه بحث داده و مکانیزم‌های مدیریتی آن را در پایان سال 2011 به‌چالش‌کشیده و به‌نوعی رویکرد اصلی‌سال آینده میلادی را در حوزه پایگاه‌های داده مشخص می‌سازد، آگاهی از این حقیقت است که نزدیک به نود درصد از کل داده‌های ذخیره‌شده در جهان دیجیتال، به نوعی غیر ساخت‌یافته (Unstructured Data) هستند و این موضوع ما را با مفهومی به‌نام «داده بزرگ» یا Big Data روبه‌رومی‌سازد.

در یک تعریف ساده و به‌دور از پیچیدگی‌های فنی، «داده بزرگ»، به مجموعه‌هایی از داده (datasets) گفته می‌شود که نرخ رشد آن‌ها بسیار بالا بوده و در مدت زمان کوتاهی، شامل چنان حجمی از اطلاعات می‌شوند که دریافت، ذخیره‌سازی، جست‌وجو، تحلیل، بازیابی و همچنین تصویرسازی آن‌ها با ابزارهای مدیریت داده موجود غیر قابل انجام خواهد بود. آنچه حائز اهمیت است، این است که برخلاف گذشته، مفهوم داده بزرگ تنها مختص به حوزه آکادمیک و حل مسائل علمی مانند شبیه‌سازی‌های پیچیده فیزیکی، تحقیقات زیست محیطی، هواشناسی و مانند آن نبوده و بسیاری از سازمان‌ها و شرکت‌های بزرگ در سال‌های آینده با مشکلات مربوط به داده‌های انبوه غیرساخت‌یافته یا همان Big Data مواجه خواهند بود.

شواهد فراوانی در اثبات این ادعا وجود دارند که از آن میان می‌توان به چهل میلیارد تصویر بارگذاری شده در تنها یکی از شبکه‌های اجتماعی، ثبت تراکنش‌های یک میلیون مشتری در هر ساعت در فروشگاه‌های زنجیره‌ای والمارت به‌منظور تحلیل علایق و عادت‌های خرید ایشان با حجمی بالغ بر 2,5 پتابایت (هر پتابایت برابر یك هزار ترابایت) و در یک کلام تولید 75 درصد از کل «داده بزرگ» توسط افراد و کاربران معمولی به میزان 1,35 زتابایت (هر زتابایت برابر یک هزار اگزابایت) اشاره کرد. این در حالی است که بر‌اساس تحقیقات به‌عمل آمده، حجم داده‌های موجود در جهان در سال 2012، چهل درصد افزایش یافته و به عددی بالغ بر 2,52 زتابایت خواهد رسید!
 پرواضح است که چنین حجمی از داده نیازمندی‌های خاص خود را داشته و ابزارهای مختص به‌خود را می‌طلبد. ابزارهایی مانند هادوپ (Hadoop) که بدون تردید جزء موفق‌ترین نمونه‌های پیاده‌سازی شده از تفکر NoSQL حسوب می‌شود. جنبش No SQL که در ابتدا با هدف جایگزینی پایگاه‌های رابطه‌ای و با شعار پایان رابطه‌ای‌ها (No SQL) خود را معرفی‌کرد، با مقاومت بزرگان و پشتیبانان مکانیزم‌های رابطه‌ای مواجه شد. مقاومتی که باعث شد تا این جنبش نوپا به‌درستی دست از سماجت برداشته و خود را به‌عنوان راه حلی مناسب برای مسائلی که پایگاه‌های داده رابطه‌ای در حل آن با دشواری مواجه هستند، مطرح کند و شعار «نه فقط رابطه‌ای» (Not only SQL) را برای خود برگزیند.
 این تغییر رویکرد، شرایط لازم را فراهم آورد تا تمامی فعالان این عرصه از موافق و مخالف بر مزایا و منافع این رویکرد تمرکز‌کرده و با مشارکت شرکت‌های‌قابل احترامی مانند یاهو و بنیاد آپاچی پروژه‌هایی مانند Hadoop، MangoDB، Cassandra، CouchDB و بسیاری از پروژه‌های دیگر، در جهت حل مسائل مرتبط با «داده بزرگ» پا به عرصه حیات بگذارند. رویکردی که بدون کمترین تردیدی در سال 2012 و سال‌های بعد از آن، در مرکز توجه بسیاری از شرکت‌های تولید‌کننده‌پایگاه‌های داده مانند آی‌بی‌ام، اوراکل، مایکروسافت و دیگران خواهد بود.

در واقع اگر بخواهیم با موشکافی بیشتری این حرکت جمعی به‌سوی تولید ابزارهای مدیریت داده‌های حجیم را مورد بررسی قرار دهیم باید این نکته را در نظر داشته باشیم که تقریباً تمامی این شرکت‌ها یا محصولاتی را (اغلب مبتنی بر کتابخانه هادوپ) روانه بازار‌کرده‌اند یا مراحل آماده‌سازی نهایی آن را سپری می‌کنند. به‌عنوان مثال، شرکت مایکروسافت در کنفرانس سالیانه PASS 2011 و درست یک هفته پس از آن‌که شرکت اوراکل از عرضه Big Data Appliance با توانایی پردازش داده‌های ساخت‌یافته و غیر ساخت‌یافته مبتنی بر هادوپ خبر داد، به‌طور رسمی پشتیبانی از پردازش «داده بزرگ» مبتنی بر این کتابخانه نرم‌افزاری را در SQL Server 2012 اعلام کرد. نکته جالب توجه آن‌که این شرکت پا را فراتر از پایگاه‌های رابطه‌ای گذاشته و وعده پشتیبانی از پردازش‌های مورد‌نیاز داده‌های حجیم و غیر ساخت‌یافته را روی سیستم‌عامل Windows Server 2012 و معادل مبتنی‌بر ابر آن، یعنی Windows Azure را به علاقه‌مندان محصولات خود داد.

علاوه بر مایکروسافت و اوراکل دیگر صاحب ‌نامان این حوزه همچون آی‌بی‌ام (عرضه كننده محصولاتی مانند Info Sphere BigInsight و Info Sphere Streams) و همچنین شرکت EMC (با مجموعه ابزارهای Greenplum شامل Database، HD و Chorus) حرکت خود را به سمت فراهم آوردن مکانیزم‌های مورد نیاز برای پردازش داده‌های بزرگ آغاز کرده‌اند و شکی نیست که در سال آینده نیز با تمام توان و به‌منظور کسب سهم بیشتری از این بازار رو به گسترش، تلاش‌کرده و شاهد ورود ابزارهای پردازشی فراوانی در این حوزه خواهیم بود.

کلام پایانی آن‌که، سال 2012 را در بحث پایگاه‌های داده، می‌توان به‌نوعی سال پردازش داده‌های انبوه و غیر ساخت‌یافته و در یک کلام «داده‌های بزرگ» دانست. رویکردی که به‌جز ابزار و روش، به سخت‌افزارها و پلتفرم‌های پر قدرت و قابل اعتماد نیاز داشته و این در شرایطی است که بسیاری از سازمان‌ها و شرکت‌ها، حتی در صورتی که توان مالی خرید چنین تجهیزاتی را در اختیار داشته باشند، از حیث مدیریت، نگه‌داری و به‌روزرسانی و بسیاری مسائل و مشکلات مرتبط با آن، رغبت چندانی به آن نخواهند داشت.این المان‌های تصمیم‌گیری به‌ ظاهر متناقض، در عمل ما را به یاد سرویس‌های قابل ارائه در قالب محاسبات ابری (Cloud Computing) انداخته و این نکته را به‌ ذهن متبادر می‌سازد که نیاز به حجم انبوهی از ماشین‌های سرویس‌دهنده و توان پردازشی فوق‌العاده بالا در کنار عدم درگیر شدن با مسائل فنی مرتبط با زیرساخت‌های مذکور، سال آتی را به مکانی برای قدرت‌نمایی انواع سرویس‌های ابری تبدیل كرده و بسیاری از شرکت‌ها به سمت استفاده از آن سوق خواهند یافت. باید
منتظر ماند و دید!

آپاچی هادوپ (Apache Hadoop)
کتابخانه نرم‌افزاری هادوپ، یک چارچوب کاری (Framework) نوشته شده با زبان برنامه‌سازی جاوا است که با الهام از مقاله‌های منتشر‌شده توسط گوگل در حوزه محاسبات توزیع‌شده و سیستم‌فایلی اختصاصی این شرکت موسوم به GFS ایجاد شده و با استفاده از یک مدل برنامه‌سازی‌ساده، امکان‌پردازش توزیع‌شده روی مجموعه‌های عظیم‌داده‌‌ای روی کامپیوترهای به‌هم متصل را فراهم می‌آورد. از ویژگی‌های قابل توجه هادوپ می‌توان به قابلیت مقیاس‌پذیری آن از یک سرویس‌دهنده به هزاران ماشین با‌حافظه و قدرت پردازش محلی اشاره‌کرد. همچنین این کتابخانه با قابلیت تشخیص و مدیریت خطاها در لایه‌کاربری، مستقل از سخت‌افزار عمل کرده و در نتیجه سرویس‌هایی با دسترس‌پذیری بالا را برای کاربران فراهم می‌آورد. لازم به ذکر است که امروزه هادوپ در بسیاری از پروژه‌های تجاری عرضه‌شده توسط بزرگانی مانند آی‌‌بی‌ام، اوراکل و مایکروسافت مورد استفاده قرار می‌گیرد.

داده، ابزاری راهبردی
شاید تا‌کنون این سؤال را از خود پرسیده باشید، که چرا باید تمامی اطلاعات تولید شده در دنیا را ذخیره‌ کنیم؟ برای مثال، چه لزومی دارد که اطلاعات نوع ساندویچ‌های سفارش‌داده شده از جانب خریداران در یک رستوران زنجیره‌ای، کالاهای خریداری‌شده توسط ایشان در فروشگاه‌های زنجیره‌ای یا نظریه‌های کاربران در شبکه‌های اجتماعی در زیر یک محصول یا سرویس را برای سالیان دراز (در برخی موارد تا پانزده سال) نگه‌داری کرد؟
اگر این سؤال در ذهن شما نیز وجود دارد، بد نیست بدانید که همان یک نظر ساده شما درباره یک محصول یا سرویس، نوع و برند محصولات خریداری‌شده در یک شعبه از یک فروشگاه زنجیره‌ای یا سفارش‌های غذایی شما می‌توانند راهبردهای کسب و کاری یا بازاریابی یک بنگاه اقتصادی را شکل دهند. به‌عنوان یک مثال بسیار ساده، ثبت تعداد و مدت تماس‌های تلفنی(که حجم عظیمی از داده را به‌خود اختصاص می‌دهد) در یک منطقه خاص، می‌تواند برای یک شرکت تبلیغاتی، شلوغ‌ترین نقاط در آن منطقه و در نتیجه بهترین مکان برای نمایش تبلیغات را مشخص سازد. اطلاعاتی که تنها ارزش مادی آن گاه غیرقابل تصور است. بدون شک شما نیز کاربردهای فراوان دیگری در حوزه‌های اجتماعی، اقتصادی، فرهنگی و مانند آن خواهید یافت که در اختیار داشتن حجم انبوهی از داده‌های مفید می‌تواند به اتخاذ تصمیم‌گیری‌های درست کمک شایانی کند.

منبع: ماهنامه شبكه، شماره 129 ، دی ۱۳۹۰

+ نوشته شده توسط خشایار جام سحر در دوشنبه یکم آبان 1391 و ساعت 11:35 قبل از ظهر |

What Is Apache Hadoop?
The Apache™ Hadoop® project develops open-source software for reliable, scalable, distributed computing. The Apache Hadoop software library is a framework that allows for the distributed processing of large data sets across clusters of computers using simple programming models. It is designed to scale up from single servers to thousands of machines, each offering local computation and storage. Rather than rely on hardware to deliver high-avaiability, the library itself is designed to detect and handle failures at the application layer, so delivering a highly-availabile service on top of a cluster of computers, each of which may be prone to failures.

The project includes these modules:

  • Hadoop Common(Core): The common utilities that support the other Hadoop modules.
  • Hadoop Distributed File System (HDFS™): A distributed file system that provides high-throughput access to application data.
  • Hadoop YARN: A framework for job scheduling and cluster resource management.
  • Hadoop MapReduce: A YARN-based system for parallel processing of large data sets.

Other Hadoop-related projects at Apache include:

  • Avro™: A data serialization system.
  • Cassandra™: A scalable multi-master database with no single points of failure.
  • Chukwa™: A data collection system for managing large distributed systems.
  • HBase™: A scalable, distributed database that supports structured data storage for large tables.
  • Hive™: A data warehouse infrastructure that provides data summarization and ad hoc querying.
  • Mahout™: A Scalable machine learning and data mining library.
  • Pig™: A high-level data-flow language and execution framework for parallel computation.
  • ZooKeeper™: A high-performance coordination service for distributed applications.


+ نوشته شده توسط خشایار جام سحر در یکشنبه سی ام مهر 1391 و ساعت 9:55 قبل از ظهر |

Creating a Business Case for Data Governance: Ten Critical Steps (TDWI)

  1. Develop a Strategy
  2. Identify Value
  3. Leverage Industry Sources
  4. Perform a Data Assessment
  5. Identify Technology Requirements
  6. Build a Concept Definition
  7. Establish Funding Requirements
  8. Determine Requirements for Success/Areas of Risk
  9. Document
  10. Present


+ نوشته شده توسط خشایار جام سحر در شنبه بیست و پنجم شهریور 1391 و ساعت 8:32 قبل از ظهر |

 Top 10 Business Intelligence Predictions For 2012 (By Boris Evelson)

 1.Individualized fit for purpose BI tools trump standards.
 2.A "multiple BI tool" strategy is here to stay for the foreseeable future.
 3.Ready or not, information workers will demand more BI control.
 4.BI tools that support the right amount of managed end user self-service will become popular.
 5.Mobility is no longer a "nice to have" — it will become the new BI mantra.
 6.Cloud BI will slowly and steadily chip away at on-premises implementations.
 7.BI-specific DBMSes will gain popularity.
 8.Big data will move out of silos and into enterprise IT.
 9.Exploration will become the new bread and butter of BI suites.
 10.BI will integrate with the Information Workplace (IW).


1. Mobile Business Intelligence and Accessibility
2. Cloud Hosted Business Intelligence Solutions
3. Simplicity and Self-Serve Business Intelligence
4. Operational or Tactical Business Intelligence
5. Pervasive Business Intelligence and Data Democracy

+ نوشته شده توسط خشایار جام سحر در یکشنبه دوازدهم شهریور 1391 و ساعت 7:31 قبل از ظهر |
شش گام در نظریه تصمیم

  1. تعریف روشن از مسئله ای که با آن مواجه هستید
  2. تعیین گزینه های ممکن
  3. تعیین پیامدهای ممکن
  4. تعیین بازده یا سود برای هر ترکیب گزینه-حالت طبیعت
  5. انتخاب یکی از مدلهای کمی نظریه تصمیم
  6. به کارگیری مدل و اتخاذ تصمیم

منبع: کتاب آمار و کاربرد آن در مدیریت، جلد دوم تحلیل آماری(دکتر عادل آذر، دکتر منصور مومنی)

+ نوشته شده توسط خشایار جام سحر در سه شنبه بیست و چهارم مرداد 1391 و ساعت 9:55 قبل از ظهر |

هوشمندی رقابتی و تصمیمگیری استراتژیک

در سالهای اخیر، "هوشمندی رقابتی" به یکی از مفاهیم مهم مدیریت تبدیل شده و با شرکتهای بزرگ عجین شده است؛ اما باید پرسید، تأثیر هوشمندی رقابتی بر تصمیمگیری استراتژیک شرکت چیست؟ نوع آرمانی هوشمندی رقابتی ویژگیهایی دارد؛ از قبیل پویش و جستوجوی دقیق در منابع اطلاعاتی مختلف و داده کاوی؛ تشخیص زود هنگام خطرات/تهدیدها و فرصتها؛ ارایۀ مؤثر به هنگام و چندرسانه ای اطلاعات؛ فشرده سازی داده ها و اطلاعات؛ تسهیم دانش و اطلاعات، توانایی ایجاد گزارش ها در برابر پرسوجوها در لحظه و ذخیره سازی اطلاعات و محافظت از آنها. نتایج تحقیق نشان می دهد که این ویژگی ها بر فرآیند تصمیم گیری استراتژیک مؤثرند، اما هوشمندی رقابتی بیشترین تأثیر را بر مراحل اولیه فرآیند تصمیم گیری استراتژیک دارد و کمترین تأثیر را بر توسعه گزینه های استراتژیک و انتخاب و ارزیابی گزینه ها (مراحل انتهایی تصمیم گیری استراتژیک) دارد. روش تحقیق در این مقاله استخراج نوع آرمانی بر مبنای مطالعات موردی چندگانه بوده است.

در سالهای اخیر، هوشمندی رقابتی به یکی از مفاهیم مهم مدیریت تبدیل شده و با شرکت های بزرگ عجین شده است. یکی از اصول مدیریت تعالی سازمان ها، مدیریت مبتنی بر حقایق است. مدیریت مبتنی بر حقایق واقع نخواهد شد؛ مگر با دسترسی به اطلاعات. نیاز به دسترسی سریع به اطلاعات راهبردی در همۀ سازمان های رقابتی احساس می شود و طبق این نیاز است که ابزارهای متفاوتی در سازمان های مختلف به کار گرفته می شوند. این ابزارها عبارتاند از:

  • اتاق کنترل
  • داشبورد راهبردی
  • داشبورد مدیران ارشد
  • سیستم اطلاعاتی مدیران ارشد
  • سیستم های اطلاعاتی استراتژیک
  • سیستم های هوشمندی تجاری (کسب وکار)

 افزایش هوش رقابتی موجب می شود، سازمانها اطلاعات محیط اطراف خود را سریعتر و با دقت بیشتری تجزیه و تحلیل کنند و نتایج حاصل را ذخیره و در مواقع مقتضی در دسترس تصمیم گیرندگان قرار دهند. این امر جریان تبادل داده ها، اطلاعات و دانش را در سازمان تسریع می کنند و اثربخشی تفکر و تصمیم گیری را بهبود می بخشد. هوشمندی رقابتی به مثابۀ راداری است که با کشف فرصت های جدید و هشدار تهدیدها، شرکت را قادر می سازد که محیط خود را سریعتر و دقیقتر شناسایی کند. یک سازمان هوشمند، استراتژی رقبا را بهتر و سریعتر درك می کند و از شکست و موفقیت آنها می آموزد و این امکان را برای مدیران سازمان بوجود می آورد تا با نظارت نظام مند، با آگاهی بیشتری تصمیمات راهبردی را اخذ کنند. این مقاله در پی توضیح تأثیرات نوع آرمانی هوشمندی رقابتی بر تصمیمگیری استراتژیک است.

 هوشمندی رقابتی
"بن گیلاد" یکی از تئوریپردازان هوشمندی می نویسد: "هوشمندی رقابتی، کل شناختی است که یک شرکت از محیطی که در آن رقابت میکند در اختیار دارد و حاصل تجزیه و تحلیل ذرات بیشمار از اطلاعاتی است که روزانه شرکت را بمباران میکند. در پرتوی این دانش است که تصویر کاملی از وضعیت فعلی و آینده صحنۀ رقابت پیش روی مدیران نقش می بندد تا بتوانند بهتر تصمیم بگیرند. براساس تعریف دانشکده مدیریت فرانسه، هوشمندی رقابتی عبارت است از هنر یافتن، جمع آوری، فرآوری و ذخیره سازی اطلاعات، به منظور دسترسی و استفاده پرسنل در تمام سطوح سازمان، تا ضمن شکل دادن به آینده سازمان، از موقعیت موجود نیز در قبال تهدیدات رقابتی حمایت کنند. برابر طبق نظر "لئونارد فالد"، هوشمندی رقابتی عبارتاست از: سیگنالهای هشدار دهنده در مورد فرصتها و تهدیدها. در مقالهای دیگر، این محقق معتقد است هوشمندی بنگاه، تنها خروجیهای پایگاههای داده و لزوما گزارشهای حجیم نیست. در ضمن نمی توان هوشمندی رقابتی را جاسوسی یا دزدی اطلاعات نامید. بر اساس نظر دو تن از محققان، هوشمندی رقابتی، هنر کنکاش، جمع آوری، پردازش، ذخیره سازی اطلّاعات برای شکل بخشیدن به آینده به همراه مقابله با تهدیدهای رقبا است. کاهانر براین نکته تأکید می کند که باید بین اطلّاعات و هوشمندی تفاوت قایل شد؛ اطلاعات متناظر با واقعیات است. اعداد، آمار، داده های طبقه بندی شده درباره مصادیق گوناگون، اطلاعات هستند. « هوشمندی » اطلاعاتی است که تحلیل شده است. هوشمندی رقابتی عمیقاً مابین اطلاعات و هوشمندی تمایز قایل می شود. مدیران برای فرآیند تصمیم گیری به هوشمندی و نه اطلاعات، نیازمندند. برخلاف مدیریت دانش که روی عوامل داخلی کار می کند هوشمندی رقابتی روی اتفاقات و رویدادهای خارجی هم متمرکز می شود. یکی از اهداف کلیدی در هوشمندی رقابتی، هشدار به موقع است که به تصمیم گیران اجازه می دهد، اهدافی را پیش گیرند که موجب حفظ مزیت رقابتی آنها شود. ردگیری اهداف و اقدامات رقبا از طریق جستجو در منابع عمومی اطلاعات، منابع اینترنتی و رسانه ها، گفتگو با مشتری، تأمین کنندگان، شرکای تجاری، متخصصان و خبرگان صنعت صورت می پذیرد.

 در جمعبندی تعاریف پیش گفته، هوشمندی رقابتی را بدینگونه می توان تقریر کرد: هوشمندی رقابتی فرآیند نمایش و شفاف سازی محیط رقابتی است. هوشمندی رقابتی فرآیندی است برای گردآوری دادهها و اطلاعات محیط رقابتی و فعالیتهای رقبا و تبدیل آن به هوشمندی هدفمند، به هنگام و راهبردی که بتواند به تصمیم گیری غیرساخت یافته و راهبردی مدیران یاری رساند. در این فرآیند، برای جمع آوری اطلاعات از ابزارها و روشهای قانونی و اخلاقی استفاده می شود. پایش و پیمایش محیط رقابتی با هدف اخذ تصمیمات راهبردی انجام می شود. هوشمندی رقابتی مدیران ارشد سازمانها را قادر میسازد که تصمیمات خود را براساس آگاهی از اطلاعات تحلیل شده و به موقع (= هوشمندی) اتخاذ کنند. تصمیم گیری راهبردی هوشمندانه، افزایش رقابت پذیری شرکت را در پی دارد. هوشمندی رقابتی بخش جدایی ناپذیر از پدیده روبه ظهور اقتصاد دانایی محور است. باید توجه داشت که برخلاف مدیریت دانش که روی عوامل داخلی کار می کند، هوشمندی رقابتی بر روی اتفاقات و رویدادهای خارجی متمرکز می شود.

 فرآیند هوشمندی رقابتی
هوشمندی رقابتی هم محصول است و هم فرآیند. محصول به معنای اطّلاعات قابل استفاده ای است که بتوان از آن برای اتخاذ تصمیمات بهره گرفت. فرآیند هم دربرگیرنده شیوه های منظم جمع آوری، تحلیل و ارزیابی آن اطلاعات است. کاهانر معتقد است که هوشمندی رقابتی، فرآیندی یکپارچه است. به زعم وی، فرآیند

هوشمندی رقابتی از چهار مرحله تشکیل شده است: طرح ریزی ؛ جمع آوری داده؛ تحلیل؛ انتشار جزئیات هر یک از چهار مرحله در زیر آمده است.

  • طرح ریزی: در این مرحله، نیازمندیهای تصمیم گیران و محدودیت زمانی از طریق تبادل نظر با تصمیم گیران مشخص می شود.
  • جمع آوری داده: در این مرحله، داده های خام، جمع آوری می شوند تا به هوشمندی کاربردی تبدیل شوند.
  • آنالیز، تفسیر و تعبیر: قلب فرآیند هوشمندی رقابتی، تحلیل است؛ تبدیل اطلّاعات نامرتبط به هوشمندی. تحلیل هم هنر است ؛ هم علم.
  • انتشار، عرضۀ یافته ها به تصمیم گیران: تحلیلگران هوشمندی های به دست آمده را عرضه و آن را بین کاربران نهایی (تصمیم گیران) توزیع می کند.

 علاوه بر چهار مرحلۀ یادشده، "فالد" مرحلۀ پنجمی را به آنها اضافه می کند. وی ذخیره سازی و تحویل اطلّاعات را با رعایت اصول امنیتی مد نظر دارد. "اشتون" و "اسیستی" قدم ششمی را به فرآیند هوشمندی رقابتی اضافه می کنند: بازرسی عملکرد سیستم هوشمندی و بازخورد نتایج تصمیم گیری برای استفاده های بعدی و استمرار هوشمندی

 انواع هوشمندی رقابتی
"دشامپز و نایاك" سه نوع هوشمندی رقابتی را شناسایی کرده اند که عبارتند از:

  • هوشمندی بازار: سعی این هوشمندی نیازمندیهای جاری و آینده مشتریان، فرصتهای جدید و خلاقانۀ موجود را در تقسیم بازار می کند و تغییرات عمده نمایان کندکه در فرآیندهای بازاریابی و توزیع رخ می دهد. در این هوشمندی، عمدتا اطّلاعات مشتریان، تأمین کنندگان، خریداران و توزیع کنندگان گردآوری و تجزیه و تحلیل می شود.
  • هوشمندی رقبا: تکامل استراتژی رقابتی طی زمان را با مشاهده تغییرات ساختار رقبا، جایگزینی محصولات جدید و تازه واردان به صنعت، بازنمایی می کند و متمرکز بر مسائلی است؛ از قبیل سیاستهای قیمتگذاری، محصولات جانشین و سیاستهای توسعۀ رقبا.
  • هوشمندی تکنولوژیک: تکنولوژی های موجود و جدید را ارزیابی و جهشهای تکنولوژیکی آتی را پیش بینی می کند و با تحقیقات پایه و کاربردی، حق اختراع و غیره سروکار دارد.

 براساس دیدگاهی دیگر، هوشمندی استراتژیک و اجتماعی نیز به انواع هوشمندی رقابتی اضافه می شود. هوشمندی استراتژیک و اجتماعی ، شامل قوانین، مالیات و امور مالی، گستره اقتصادی و سیاسی و مقولات منابع انسانی می شود. گونه چهارم هوشمندی رقابتی ، یعنی هوشمندی استراتژیک و اجتماعی، رفتارهای اجتماعی را مشاهده و تحلیل می کند. باید گفت که چهار هوشمندی یادشده به هم مرتبطند.

 تکنولوژیهای کامپیوتری یا توانمندی های انسانی
فالد معتقد است که سیستم های هوشمندی با وجود برنامه های کاربردی کامپیوتری بسیار به فرآیندهای انسانی قائم هستند. هرچند رایانه در سیستم هوشمندی رقابتی نقش مهمی به عهده دارد؛ ولی نقش نیروی انسانی در تمام مراحل هوشمندی رقابتی برجسته تر است. هوشمندی رقابتی را به روشهای رسمی نباید محدود کرد. بنابر پیشنهاد دو محقق، فرآیندهای موازی هوشمندی رقابتی، یعنی فرآیندهای رسمی و غیررسمی در مجموع کامل تر هستند.

 تأثیر اطّلاعا ت و هوشمندی بر تصمیمگیری استراتژیک
"پورتر و میلار" نشان داده اند که چگونه اطلّاعات، ساختار صنعت را تغییر می دهد و قواعد رقابت را متحول می سازد. واضح است که انقلاب تکنولوژی اطلّاعات، به شرکت ها مزیت هایی عطا کرده است؛ زیرا راههای جدیدی برای مقابله با همتایان آنها به وجود آورده است. تکنولوژی اطلاعات بر کل فرآیند تولید محصولات؛ تأثیر عمیقی گذاشته است. تکنولوژی اطلاعات در نقطه نقطۀ "زنجیره ارزش"  و "زنجیره عرضه" بنگاه رسوخ کرده و راههای ایجاد فعالیت های ارزش زا و نیز ماهیت تبادلات بین آنها را متحول ساخته است. علاوه بر آن، بر فعالیتهای منفرد تأثیر نهاده و از طریق جریانات اطلاعاتی جدید، توانمندی بنگاه را برای کشف روابط میان فعالیتها، در درون و بیرون بنگاه، ارتقا بخشیده است. باید گفت که تکنولوژی اطلّاعات، به گستره رقابت معطوف است و نحوه ارضای نیازمندی های مشتریان را متحول ساخته است؛ اما آنچه در این مقاله در پی آن هستیم، از جنس تأثیرگذاری اطلّاعات و فن آوری اطلّاعات و ارتباطات بر فعالیتها نیست؛ بلکه بررسی تأثیرگذاری اطلّاعات و هوشمندی بر تصمیم گیری استراتژیک است. در ادبیات مدیریت و علی الخصوص مدیریت استراتژیک، نویسندگان متعددی بر اهمیت اطلّاعات و دانش تسهیم شده در استراتژی البته بدون استفاده از اصطلاح هوشمندی رقابتی/، هوشمندی تجاری تأکید کرده اند. به طور کلی، یکی از اصول برنامه ریزی استراتژیک، رابطۀ بین شرکت و محیطی است که بر عملکرد استراتژیک شرکت مؤثر است و این بدون تبادل اطلاعاتی بی معنا است. "آچارد" معتقد است که فرآیند هوشمندی رقابتی، داده ها و اطلاعات را به هوشمندی باید تبدیل کند؛ بدینسان می توان از هوشمندی حاصل، در فرآیند تصمیم گیری راهبردی استفاده کرد زیرا اگرچه اطلّاعات، محور اصلی در مفهوم هوشمندی رقابتی است هوشمندی رقابتی بسیار فراتر از جمع آوری اطلاعات است. هوشمندی رقابتی در شرایط پیچیده "فرارقابتی"، امروزه برای تصمیم گیری در سطح بنگاه یک نیازمندی اساسی است. دو تن از نویسندگان معتقدند که عصاره هوشمندی رقابتی دو چیز بیش نیست:

  1. استفاده اخلاقی و قانونی از منابع اطلّاعاتی قابل دسترس برای تهیۀ داده های مرتبط با رقبا، رقابت و شرایط محیطی و
  2. تبدیل داده ها به اطلاعات قابل استفاده برای پشتیبانی از تصمیمات بهتر.

 به عقیده دو محقق دیگر، برای فرموله کردن و اجرای کارایی، استراتژیهای رقابتی پیروزی بخش شرکتها، برای جمع آوری، تحلیل و انتشار هوشمندی رقابتی داشته باشند. هوشمندی رقابتی سازوکاری رسمی باید مدیران را توانمند می کند تا بفهمند رقبا چه می توانند انجام دهند و چه می خواهند بکنند و چه زمان و مکانی برنامه شان را اجرایی خواهند کرد. به همین خاطر است که بسیاری از شرکتها بر "حرکات رقبا" ، وضعیت صنعت، نیاز مشتریان و قیمت گذاری [رقابتی] مانند یک "موضوع کلیدی هوشمندی"  تمرکز کرده اند.
در جمعبندی میتوان گفت، امروزه رقابت پذیری، اساس بقای شرکت ها است. هوشمندی رقابتی به شرکت ها کمک می کند تا در مورد امور راهبردی، تصمیمات بخردانه ای اتخاذ کنند. هوش رقابتی، فرآیند مداومی است که اطلاعات قابل استفاده ای در اختیار تصمیم گیرندگان می گذارد. هدف نهایی هوشمندی رقابتی، بالا بردن رقابتپذیری شرکت از طریق افزایش کیفیت و سرعت تصمیمات راهبردی است. برآورد کمّی تأثیر هوشمندی رقابتی دشوار است. البته برخی از محققان تأثیرات هوشمندی رقابتی را بر ابعاد عملکردی شرکت، از جمله، عملکرد کسب و کار، "کیفیت برنامه ریزی ،استراتژیک" ، "دانش بازار"  و کیفیت محصول سنجیده و کمّی کرده اند. بنابر مطالب پیشگفته مسأله اصلی تحقیق این است که تأثیر هوشمندی رقابتی بر فرآیند تصمیم گیری استراتژیک چیست؟ و کدام مراحل از فرآیند تصمیم گیری استراتژیک بیشتر تحت تأثیر هوشمندی رقابتی هستند؟ در ادامه اهداف تحقیق، سوالات کلیدی و روش تحقیق به دقت و تفصیل بیان می شوند.

 روش شناسی تحقیق
در این قسمت از مقاله هدف، روش شناسی و سؤالات تحقیق تشریح و شفاف می شوند.

 هدف تحقیق
هدف تحقیق بررسی تأثیر سیستمهای هوشمندی رقابتی بر تصمیمگیری استراتژیک است.

 سؤالات کلیدی تحقیق
با توجه به اینکه ما با تحقیقی توصیفی- استقرایی روبرو هستیم فرضیات در این تحقیق مطرح نیست و باید سوالات کلیدی تحقیق را مبنا قرار داد. سوالات تحقیق عبارتند از:

  • مشخصه های نوع آرمانی هوشمندی رقابتی چیستند؟
  • تأثیر هوشمندی رقابتی بر فرآیند تصمیم گیری استراتژیک چیست؟
  • کدام مراحل از فرآیند تصمیم گیری استراتژیک بیشتر تحت تأثیر هوشمندی رقابتی هستند؟
  • تحلیل بدست آمده از بررسی تأثیر هوشمندی رقابتی بر مراحل مختلف فرآیند تصمیم گیری چیست؟

 در ادامه لایه های مختلف روش شناسی تحقیق معرفی میشوند و مورد پژوهی و نوع آرمانی به علت اهمیتشان در این تحقیق، با توضیحات مبسوطی، روشن خواهند شد.

مشخصات اصلی روش شناسی
نوع پژوهش، توصیفی و تبیینی است. راهبرد تحقیق بر اساس رویکردی استقرایی و کیفی،مورد پژوهی چندگانه برای استخراج نوع آرمانی انتخاب شده است. روش نمونه گیری، نمونه گیری زنجیرهای و نمونه گیری ملاك محور، هر چند باید توجه داشت که تحقیق چند موردی نوعی نمونه گیری نیست، بلکه تکرار تحقیق است. واحد تحلیل در این پژوهش تصمیمات استراتژیکی است که با استفاده از ورودی سیستم های هوشمندی رقابتی اخذ شده اند. روش جمع آوری داده ها، مطالعات اسنادی بوده است. در تجزیه و تحلیل از دو روش استفاده شده است:

  • کدگذاری به روش استقرایی بر اساس چهار اصل فراگیری، همسانی، فراغت از ارزش، عدم ابهام. با ملاحظات روشی تدوین نوع آرمانی
  • استفاده از تعمیم تحلیلی.

برای تحلیل تأثیر نوع آرمانی هوشمندی بر تصمیم گیری استراتژیک. با توجه به اینکه دو مبحث موردپژوهی و نوع آرمانی قلب روش شناسی تحقیق حاضر می باشند لازم می نماید این موارد توضیح داده شوند:

 مطالعات موردی یا مورد پژوهی
به نظر میرسد در ابتدا زیگموند فروید، مورد پژوهی را با به کارگیری آن برای مستندسازی موردهای روانشناسی خود به شهرت رساند. اما اکنون رشد کاربری و اهمیت موردپژوهی با توجه به کاربردهای متعدد آن، چنان بوده است که کتابهایی به صورت مجزا به این روش پرداخته اند. مطالعات موردی معمولاً به چهار صورت مورد استفاده قرار می گیرد:

  • روش آموزشی به صورت حل مسأله و موردپژوهی که مبدأ آن مدرسه بازرگانی دانشگاه هاروارد بوده است.
  • ارایه یک توصیف غنی از یک پدیده درون بستر خاص خود. موردپژوهی برای مطالعات اولیه و اکتشافی استفاده می شوند که به ارایه فرضیاتی برای تحقیقات سیستماتیک بیشتر منجر میشوند.
  • تست نظریه بر اساس تعداد محدودی نمونه. بر خلاف اکثریت روشها که با رویکردی کمی و نمونه های آماری متعدد و معمولاً تصادفی انتخاب می شود در این روش می توان با استفاده از موارد معدود برای ابطال پذیری نظریه ای کوشید.
  • خلق نظریه: که معمولاً (و نه همیشه) بر اساس مطالعات موردی چندگانه است. مطالعات موردی چندگانه مبنایی شده است برای پیدایش روش تحقیق نظریه داده مبنا (نظریه مبنایی، رویش نظریه).

 بدین ترتیب مشاهده میشود که مورد پژوهی، هم به توسعه و خلق نظریه (نظریه پردازی) و هم به تست نظریه (نظریه آزمایی) معطوف است. آنچه در این تحقیق مدنظر بوده است: تحقیق موردی چندگانه برای نظریه پردازی بوده است که در نهایت ما را به سمت نوع آرمانی هوشمندی رقابتی رهنمون می سازد و رویکردی کیفی و استقرایی دارد و در پی آزمون فرضیه نمی باشد. در تاریخ مدیریت نیز تحقیقات متعددی با این رویکرد (کیفی، استقرایی، نوع آرمانی) صورت گرفته است و استخراج نوع آرمانی از مطالعات موردی چندگانه کیفی به شیوه استقرایی کم سابقه نبوده است. مانند کار کلاسیک و مشهور هنری مینتزبرگ در مورد نقشهای دهگانه مدیران در عمل که به صورت غیر کمی (کیفی)، غیر قیاسی (استقرایی) و تدوین نوع آرمانی بوده است. در ادامه مقاله رویکرد نوع آرمانی توضیح داده می شود.

 نوع آرمانی
نوع آرمانی پیشنهاد هوشمندانه ماکس وبر برای تحقیقات اجتماعی است. وبر معتقد بود توجه مطالعات اجتماعی [به معنای عام آن که شامل مدیریت هم میشود باید تفسیری باشد نه اثباتی. به منظور مقایسه پدیده های اجتماعی و تاریخی با یکدیگر و تحلیل آنها، وبر ابزار مفهومی را پیشنهاد داده است. نوع آرمانی نوعی تاکید یک سویه بر برخی مؤلفه ها و عناصر «نوع آرمانی» یک مفهوم و نادیده گرفتن یا حذف دیگر مؤلفه هایی است که از منظر محقق، شایان توجه نیستند. سازه مفهومی که بدین ترتیب بدست آمده است باید بگونه ای باشد که اجزای آن ربط منطقی با یکدیگر داشته و بتوانند با یکدیگر یک ترکیب را تشکیل دهند. به عنوان مثال وبر از ابزار نوع آرمانی در روش شناسی تحقیق خود برای تبیین ارتباط نظام ارزشی فکری پروتستان با رشد نظام سرمایه داری استفاده کرد. روش شناسی وبر هنگام تحلیل پدیده های اجتماعی پیچیده ای نظیر این دو پدیده، دارای دو مرحله اصلی است :

  • مرحله اول : ساختن انواع آرمانی
  • مرحله دوم: جستجوی روابط منطقی ساختاری میان این انواع

 نمونۀ آرمانی سرمایه داری جدید را با مشخصه های انباشت سرمایه ، محاسبه عقلانی و گردش ثروتها مورد توجه قرار می دهد. البته این نوع آرمانی با بذل توجه خاص به برخی از صفات پدیده مورد بررسی و نادیده گرفتن برخی صفات دیگر بدست آمده است . اما به هرحال اصالت سرمایه داری صنعتی را نسبت به سرمایه داری رباخواران یا تدارك کنندگان جنگ که درهمه جامعه ها سابقه داشته است ، کاملا آشکار می کند. در هر صورت وبر این سازه های مفهومی را به منظور سنجش و مقایسه پدیده های تجربی ابداع نمود تا به وسیله آن جایگاه پدیدههای اجتماعی به نسبت نوع آرمانی مشخص شود و نیز  بتوان پدیده های مشابه را با یکدیگر مقایسه نمود.

 سه گزاره کلیدی در مورد نوع آرمانی
معمولاً نوع آرمانی با سوء تفاهمهای اساسی روبرو است، لذا در ادامه به تشریح سه نکته کلیدی در این مورد میپردازیم.

1. نوع آرمانی از مقوله ارزشی نیست که بایدها را در بر داشته باشد. از یک پدیده می توان از منظرهای گوناگون انواع آرمانی متعدد استخراج کرد. وبر معتقد بود علم نمی تواند به مردم بگوید چگونه زندگی کنند و یا چگونه خود را سازماندهی کنند، اما می تواند برای آنها اطلاعات لازم برای اتخاذ چنین تصمیمهایی را فراهم سازد. وبر اذعان داشت که عقل قادر به تشخیص میان خوب و بد و ارائه داوریهای اخلاقی نیست. جامعه شناسی [به معنای عام آن] می تواند در مورد پیامدهای تعهدات ارزشی ما سخن بگوید ولی نمی تواند بگوید آیا این اثرات خوب هستند یا بد بنابراین از نظر وبر، جامعه شناسی به عنوان یک علم تجربی می تواند وقایع را توصیف کند و با فرض یک هدف مشخص، می تواند صرفاً موارد زیر را تعیین کند:

  • وسایل ضروری رسیدن به یک هدف معین
  • پیامدهای اجتناب ناپذیر استفاده از این وسایل
  • رقابت ارزیابیهای متعدد بر سر نتایج عملی شان

بنابراین مقصود وبر نشان دادن آرمان (یک هدف برتر یا یک نمونه عالی) نیست. به عنوان مثال برخی گمان کرده اند که مراد وی از نمونه آرمانی بوروکراسی، معرفی یک هدف برتر آرمانی است؛ یعنی اینکه سازمانها باید باید اینگونه باشند و به این مرحله برسند.

2. وبر به دو نوع معنا قائل است: معنای عینی و معنای بازسازی شده. وبر کار یک جامعه شناس را «نوع آرمانی» معنای بازسازی شده و نه معنای عینی می داند. آنچه در ذهن بازسازی شده را مینامد. به عنوان مثال وبر سه نوع مشروعیت را معرفی میکند: مشروعیت کاریزماتیک، مشروعیت سنتی و مشروعیت قانونی. وبر در توضیح این سه گانه می گوید که این سه نوع مشروعیت به شکل محض و ناب وجود ندارد و چیزی که در عالم خارج وجود دارد، ترکیبی است از این سه. مقصود او این است که این نمونه ها، نمونه هایی مثالی هستند. ممکن است در عالم خارج این مصادیق به صورت ناب یافت نشوند (معنای عینی) اما این نمونه ها معنادار هستند و قابل ارجاع، منتهی به یک امر ذهنی بازسازی شده از عالم خارج.

3. نوع آرمانی، یک تئوری به معنای کلاسیک آن نیست که با خروج یک مصداق از آن ابطال شود، بلکه یک نوع چارجوب ذهنی است که قرار نیست با واقعیات انطباق 100 % داشته باشد، می توان آن را نوعی تشبیه دانست که با صحت یک بعد از شباهت، صحیح خواهد بود. برخی به اشتباه نوع آرمانی را یک تئوری به معنای کلاسیک شمرده اند که باید مصادیقی را تحت پوشش خود قرار دهد، حال آنکه نوع آرمانی یک وسیله اندازه گیری و مانند یک متر است که برای اندازه گیری واقعیات ساخته شده است.

اگر ما توقع داشته باشیم که مصداقی را تحت پوشش خودش قرار دهد،  مانند این است که کسی یک « متر » را بیرون برده و ناامید برگردد که چیزی را پیدا نکردم که در خارج، درست یک متر باشد، پس این متر به درد نمی خورد. این فرد کار متر را درك نکرده که اندازه گیری دنیای خارج است، نه پیدا کردن چیز یک متری. از این رو اشتباه بودن تعبیر  « غلط » یا « درست »  در خصوص نوع آرمانی واضح می شود. با توضیحات داده شده در مورد نوع آرمانی به نظر می رسد این روش در تبیین "تأثیر هوشمندی رقابتی بر تصمیمگیری استراتژیک" هم کارکرد دارد. روش بدین ترتیب خواهد بود که مشخصه ها و ویژگیهای هوشمندی رقابتی آرمانی از دنیای واقع استخراج می شود و بر اساس این نوع آرمانی سنجیده میشود که چگونه هوشمندی رقابتی بر تصمیم گیری استراتژیک موثر است.

 رویکرد مورد پژوهی، جمع آوری اطّلاعات و روش تحلیل
با توجه به هدف و روششناسی تحقیق، کار تحقیق از 5 مورد مطالعاتی شروع شد و تا 17 مورد مطالعاتی ادامه یافت به گونه ای که دیگر اطلّاعات جدیدی بعد از پانزدهمین مورد مطالعاتی بدست نیامد و موارد شانزدهم و هفدهم تکرار یافته های قبلی بودند. بررسی این موارد به صورت جزءگرایانه بوده است. بر طبق یک تقسیم بندی چهار رویکرد موردپژوهی وجود دارد. با توجه به اهداف تحقیق، رویکرد چندموردی جزءنگر انتخاب شده است. اطلاعات بدست آمده که بر اساس سوالات تحقیق از موارد 17 گانه جمعآوری شده بودند بر اساس روش های زیر تحلیل شدند: کد گذاری به روش استقرایی بر اساس چهار اصل فراگیری، همسانی، فراغت از ارزش، عدم ابهام. برای تدوین نوع آرمانی و با استفاده از روشهای زیر جمع بندی شدند:

  • نظم بخشی اطلاعات به ترتیب های مختلف
  • ایجاد ماتریسهایی از طبقات مختلف
  • تشکیل جدولی از رویدادهای مختلف

 نتایج توصیفی
در ادامه، نتایج توصیفی بدست آمده از نمونه های مطالعه شده ارایه می شود که شامل دو قسمت است: الف. اطلّاعات مورد استفاده در نمونه های مورد بررسی و ب. تأثیرات هوشمندی رقابتی بر تصمیم گیری استراتژیک. استخراج اطلاعات مورد استفاده در نمونه های مورد بررسی در 17 مورد تحت بررسی، 11 نوع سرفصل اطلاعاتی مورد استفاده در هوشمندی رقابتی بر اساس کدگذاری استقرایی استخراج شدند.

  1. اطلاعات مالی: عملکرد مالی رقبا، تغییرات ارزش سهام رقباو ...
  2. اطلاعات زنجیره عرضه: قابلیتهای تامین کنندگان، کانالهای توزیع و ...
  3. اطلاعات مربوط به قیمت: تغییر قیمتهای عمده فروشی/ خرده فروشی، سیاستهای اعطای تخفیف، تأثیر قیمتهای رقبا بر فروش سازمان، تغییر حاشیه سود، اثربخشی استراتژیهای قیمت- گذاری
  4. اطلاعات فروش و بازاریابی: اعتبار نام تجاری، برنامه های روابط عمومی سازمان، تغییر در استراتژیهای تبلیغ، اثربخشی تبلیغات برای مشتریان هدف، تأثیر تبلیغات رقبا بر فروش سازمان
  5. اطلاعات خدمات/کالا: معرفی کالا و خدمات جدید، اطّلاعات مندرج در بروشورها و کتابچه های معرفی محصول و خدمت، تقاضا برای محصولات و خدمات رقبا، فناوری تولید و توانایی تحقیق و توسعه، تنوع محصول و خدمات، قیمت تمام شده رقبا، تغییر در کیفیت کالا و خدمات، توقف تولید و یا ارائه خدمت
  6. اطّلاعات فروش: اطّلاعات ماهانه فروش رقبا، سیستم پاداش پرسنل فروش، پورسانت فروش، تغییر در خدمات و محصولات رقبا، تغییر در خدمات پس از فروش و مدیریت مشتری و ...
  7. اطّلاعات بازار: برنامه های ادغام رقبا، ثبت علائم تجاری، تغییر در استراتژیهای بازاریابی و غیره
  8. اطّلاعات نیروی انسانی: جذب نیروی انسانی توسط رقبا، کاهش نیروی انسانی رقبا، چارت سازمانی رقبا، سوابق مدیران اجرایی رقبا
  9. اطّلاعات مشتریان: اطّلاعات مقایسه ای استفاده مشتریان از محصولات رقبا، تعداد دفعات خرید، سطح وفاداری مشتریان نسبت به محصول و خدمات رقبا، علت خرید محصول و خدمات مشابه شرکت از رقبا
  10. اطّلاعات مرتبط با قوانین: قوانین و مقررات زیست محیطی و غیره
  11. ترازیابی رقبا: بهبود در عملکرد فرآیندهای داخلی رقبا

 تأثیرات هوشمندی رقابتی بر تصمیم گیری استراتژیک
در موارد 17 گانه مورد بررسی، تأثیرات هوشمندی رقابتی در موردهای مختلف را می توان به صورت جدول زیر پیشنهاد میشود. ستون اول شماره مورد است. ستون دوم اطلّاعاتی است که مورد استفاده قرار گرفته است یا منبع اطلّاعاتی است و در ستون سوم، تأثیر هوشمندی بر تصمیم گیری استراتژیک استخراج و تنظیم شده است. 

  1. اطّلاعات در مورد آگهی استخدامها: کسب اطمینان از عدم سرمایهگذاری رقبا برای معرفی محصول جدید
  2. بررسی خرید تجهیزات رقیب:  اطمینان از سرمایهگذاری رقیب برای تکنولوژیهای نوین تولیدی
  3. ترازیابی رقابتی: تعیین قابلیتها و شایستگیهای لازم برای سرمایهگذاری و  توسعه و قابل اهرم کردن در بازار
  4. بررسی ساختار هزینۀ رقبا: تصمیمگیری برای تغییراتی در ساختار هزینۀ محصولات
  5. بررسی اطلاعات بازار و شکایات مشتریان از سازمان خودی و رقیب: کشف مشتریان جدید یا بالقوه و شناسایی مشتریهای دایمی
  6. بررسی تغییرات استراتژی تبلیغاتی رقبا: فهم بخشبندی مورد نظر رقیب و بخش مورد نظر رقیب و تعیین بخشهای دیگر برای تمرکز
  7. بررسی اطّلاعات مندرج در بروشورها و کتابچه های معرفی محصول و خدمت: تنظیم قیمتها به نحو مطلوب (قیمتگذاری رقابتی)
  8. فعالیتهای مربوط به ثبت علایم تجاری: تغییر در استراتژیهای تکنولوژی و R&D و تعیین استراتژی های تکنولوژی (جذب، انتقال، بهکارگیری و توسعه تکنولوژی)
  9. مهندسی معکوس محصولات رقبا:  تعیین حوزههای بهبود در محصول
  10. تغییرات ارزش سهام رقبا : بررسی امکان خرید و Take over کردن شرکت رقیب
  11. ورود محصولات جدید به بازارها: تغییر قیمت و خدمات بعد از فروش محصولات جاری
  12. تغییرات تولید سازمانهای تامین کننده سازمان خودی و رقیب: تغییر محصولات و خدمات
  13. تغییر قوانین و مقررات زیست محیطی: اتخاذ تکنولوژی سبز
  14. تغییر قوانین و مقررات صاداراتی و وارداتی: تصمیم گیری برای ورود به بازارهای نوین
  15. تغییر در خدمات پس از فروش: تغییر استراتژی های فروش و خدمات
  16. بررسی برنامه های ادغام رقبا: پشتیبانی از تصمیمات مرتبط با استراتژی یکپارچگی عمودی و افقی. تعیین فرصتهای همکاری رقابتی بین دو یا چند رقیب برای رقابت با دو یا چند رقیب
  17. درس آموختن از شکست و موفقیت رقبا: تعیین عوامل کلیدی موفقیت

 نتایج تحلیلی و استنباطی (استنتاجی)
بعد از ارایه اطلاعات توصیفی، نتایج تحلیلی ارایه میشود. در این قسمت از مقاله در ابتدا استنتاج ویژگیهای نوع آرمانی هوشمندی رقابتی از مطالعات موردی چندگانه ارایه میشود. در قسمت بعدی، تحلیل میشود که اثر نوع آرمانی هوشمندی رقابتی بر تصمیمگیری استراتژیک چه میتواند باشد. اثر نوع آرمانی بر تصمیم گیری استراتژیک، بر اساس تعمیم تحلیلی و نه بر اساس تعمیم آماری صورت می گیرد.

 ویژگیهای نوع آرمانی یک سیستم هوشمندی رقابتی
بر اساس تحلیل بدست آمده از بررسی موارد واقعی در دنیای کسب و کار ویژگیهای نوع آرمانی یک سیستم هوشمندی رقابتی به شرح زیر است:

  • پویش و جستجوی دقیق و با حوصله در منابع اطلاعاتی مختلف و شناخت الگوها و روندها از میان داده های فراوان (داده کاوی)
  • تشخیص زودهنگام خطرات و فرصتها
  • عرضۀ مؤثر، بهنگام و چندرسانه ای اطّلاعات با کیفیت
  • خلاصه سازی و فشرده سازی داده ها و اطّلاعات
  • تسهیم دانش و اطلاعات بین کارکنان و مدیران
  • توانایی ایجاد گزارش ها در قبال پرس وجو ها درلحظه، پیچیده و نو
  • ذخیره سازی اطلاعات و محافظت از آنها

 تأثیر هوشمندی رقابتی بر تصمیمگیری استراتژیک
برای تعیین تأثیر هوشمندی رقابتی بر تصمیمگیری استراتژیک، تصمیم گیری استراتژیک وفرآیند آن معرفی می شود. ویژگی های تصمیم گیری استراتژیک با توجه به ادبیات موجود، ویژگی های زیر را برای تصمیم گیری استراتژیک می توان استنباط کرد و برشمرد:

  1. غیر ساختیافته
  2. خلاقانه و غیر تکراری
  3. در فضای عدم اطمینان و ابهام، پیچیدگی و آشوبناکی
  4. مبتنی بر داده های سخت (آمار و ارقام) و داده های نرم (ایده ها، شهود و قضاوت مدیریتی)
  5. محصول فرآیندی سیاسی- ارزشی تحت تأثیر ذینفعان متعدد
  6. آینده نگرانه و با افق نسبتا بلند مدت
  7. تحت محدودیت منابع و فشار رقابتی
  8. مرتبط با محیط بیرونی
  9. مؤثر بر کلیت سازمان
  10. کلیدی و بحرانی برای موفقیت بلند مدت
  11. مبتنی بر تفکر ترکیبی (در برابر تفکر تحلیلی و جزء گرایانه)
  12. مبتنی بر کلان نگری و مدل ذهنی کلان از کل کسب وکار و نظام خلق ارزش

فرآیند تصمیمگیری استراتژیک
هر چند فرآیند تصمیمگیری استراتژیک غیرساختیافته است اما میتوان در انتزاعی ترین حالت. ساختاری را برای آن در نظر گرفت

 تعیین تأثیر هوشمندی رقابتی بر مراحل مختلف تصمیمگیری استراتژیک
بر اساس فرآیندی که برای تصمیم گیری استراتژیک ترسیم شد، می توان تشخیص داد که یک سیستم هوشمندی رقابتی در کدام مراحل از تصمیم گیری استراتژیک، می تواند مؤثر باشد.

 بحث، تفسیر و تحلیل نتایج توصیفی
حاصل تصمیم گیری استراتژیک، باید به ایجاد مزیت رقابتی نسبت به رقبای اصلی قادر باشد. نظریۀ "مایکل پورتر" درباره کارکرد اصلی استراتژی که در مقالات و کتب خود آن را تکرار می کند کاملا گویاست. هیچ سازمانی نمی تواند در فقدان یک مزیت رقابتی، سودی بیش از متوسط کسب کند. مزیت رقابتی برای مشتری، منافع بالاتر یا قیمت پایینتر را باید فراهم سازد و در عین حال دستیابی به شرایط مشابه باید دشوار باشد.
اگر استراتژی بتواند از طریق یک فرآیند مشخصِ تحلیلیِ ساخت یافته حاصل شود، دیگر نمی تواند در محیط رقابتی کسب وکار مزیت بخش باشد و این رویکرد، تعابیر غیرفرآیندی و غیرتحلیلی استراتژی را تقویت می کند. با این تحلیل کارکرد سیستم های هوشمندی رقابتی به طور خاص و فنآوری اطلّاعات و ارتباطات به صورت عام در فرآیند تصمیم گیری استراتژیک چیست؟ سه کارکرد برای آن متصور است که عبارتند از:

  1. استفاده از هوشمندی رقابتی برای بخش های ساختاریافته تصمیم گیری استراتژیک: در فرآیند تصمیمگیری استراتژیک، علیرغم غیرساخت یافتگی بصورت عام، برخی مراحل خاص ساخت یافته هستند. برای مثال مرحلۀ مشخص کردن بازارهای جذاب و یا انتخاب بازارهای در حال رشد، فرآیندی ساختارمند است و سیستم های هوشمندی رقابتی قادرند تا با استفاده از الگوهای تحلیلی و داده های مناسب آن را به انجام برسانند. ولی آنجا که کار به فرموله کردن استراتژی می رسد، دیگر فرآیندی برای کار وجود ندارد و کار به قابلیت های ذهنی انسان باید سپرده شود.
  2. استفاده از قابلیتهای گردآوری، ساماندهی و تحلیل داده ها در مراحل غیرفرآیندی طراحی استراتژی: مراحل غیرساخت یافته تصمیم گیری استراتژیک نیز به نوبه خود نیازمند گردآوری و پردازش حجم زیادی از اطلاعات محیطی هستند. سیستم های هوشمندی رقابتی با قابلیت پیشرفت های، همچون کارگزاران هوشمند، قادرند تا در دنیایی از اطلاعات شبکه اینترنت با دقت و حوصله جستجو کنند و اطلاعات مورد نظر استراتژیست را با سرعت و کیفیت بالایی فراهم آورند. داده کاوی (قابلیت تشخیص و استخراج الگوهای مفید از انبوه داده ها) نیز یک زمینۀ بسیار  امیدوارکننده بشمار می آید.
  3. توسعۀ گزینه های استراتژیک: کیفیت تصمیم به کمّیت گزینه ها مرتبط است. سیستم های هوشمندی رقابتی از راه های مختلف قادرند، کمّیت گزینه های استراتژیک را توسعه دهند؛ مانند ترازیابی رقابتی با ایده های برگرفته از شرکا؛ تازه واردها ، هوشمندی رقابتی در صورت بکارگیری درست، می تواند در توسعه کمّی گزینه های استراتژیک که مورد نیاز بخش های غیرساخت یافته تصمیم گیری استراتژیک کمکی مؤثر و در عین حال محدود است باشد .

 نوع آرمانی سیستمهای هوشمندی رقابتی، ویژگیهایی دارد؛ از قبیل پویش و جستجوی دقیق و با حوصله در منابع اطّلاعاتی مختلف و داده کاوی، تشخیص زودهنگام خطرات و فرصتها، ارایه مؤثر، بهنگام و چند رسانه ای اطلاعات، فشرده سازی داده ها و اطلاعات، تسهیم دانش و اطلّاعات، توانایی ایجاد گزارش ها در قبال پرس و جوهای در لحظه و ذخیره سازی اطلاعات و محافظت از آنها.
این ویژگیها بر فرآیند تصمیم گیری استراتژیک، مؤثر تشخیص داده شده اند؛ اما بیشترین تأثیر را در مراحل اولیه تصمیم گیری دارند و کمترین تأثیر را بر توسعۀ گزینه ها و انتخاب و ارزیابی گزینه ها.
تصمیم گیری استراتژیک، ماهیتی غیرخطیّ و ترکیبی با درونمایه اصلی خلّاقیت دارد که هیچ فرآیند مشخصی برای آن متصور نیست. مسئلۀ اصلی اینجاست که تکنولوژی های مبتنی بر کامپیوتر، بعنوان هوشمندترین تکنولوژی از فرآیندها و الگوریتم ها جان می گیرند و تصمیم گیری استراتژیک، ماهیتاً رویکردی غیرفرآیندی و غیرالگوریتمیک دارد. سیستمهای برپایه کامپیوتر قدرت اصلی خود را در انجام فرآیندهای پیچیده تکرارپذیر الگوریتمیک نشان می دهد. بنابراین باید جایگاه به کارگیری سیستمهای هوشمندی رقابتی را دانست و انتظاری بجا از آنها داشت. ابزار تحلیل هیچگاه جای تحلیلگر نخواهد نشست و تکنیک تفکر هیچگاه نیاز به متفکر را مرتفع نخواهد ساخت. بایستی تصمیم گیری استراتژیک را با همین پیچیدگی هایش پذیرفت. تحقیقات آینده: با توجه به اینکه این مقاله، رویکردی کیفی و استقرایی داشته است، نویسندگان مقاله سه مسیر تحقیقاتی زیر را بر اساس تجربیات بدست آمده از تحقیق و با تاکیدبر تحقیقات کمی و قیاسی پیشنهاد می کنند:

  • الف. بررسی تأثیر هوشمندی رقابتی بر تصمیمگیری استراتژیک بر اساس مطالعات میدانی گسترده تر؛
  • ب. بررسی فراگیری و کارآمدی کاربری سیستمهای هوشمندی رقابتی در سازمانهای ایرانی در عمل؛
  • ج. بررسی تأثیر هوشمندی رقابتی بر قابلیت تفکر استراتژیک در سازمانها.

 منبع: نگارندگان علی رضائیان ، مجتبی لشکر بلوکی (چشم انداز مدیریت بازرگانی شماره 2 پیاپی 35-تابستان 89 ص ص 65-43)

+ نوشته شده توسط خشایار جام سحر در سه شنبه هفدهم مرداد 1391 و ساعت 1:29 بعد از ظهر |

Top 14 Business Intelligence predictions for 2012 (Lachlan James)

1. The spending spree will continue
2. Location Intelligence: Complex layering
3. Mobile BI

  • Improved customer sales, service, and support (65%)
  • More efficiency and coordination in operations and business ۱processes (60%)
  • Faster deployment of BI and analytics applications and services (50%)
  • Customer self-service benefits (45%)

The top four information access benefits sought from Mobile BI are:

  • Faster and easier executive access to information (83%)
  • Easier, self-service access to data sources (67%)
  • Right-time data for users’ roles in processes or operations (54%)
  • More frequently updated information for all users (51%)

4. SaaS: BI in the Cloud spurs SMB adoption
5. Big Data
6. Ease-of-use will continue to be the number one BI priority
7. The consumerization of BI drives greater adoption and BI ROI
8. More pervasive BI leads to changes in BI governance and usership
9. “Enterprises are going to have to ‘live with’ multiple BI tools”
10. The rise of independent information gatherers
11. An analytics talent shortage
12. In-memory capabilities will grow in importance
13. Collaborative BI will experience notable marketplace penetration
14. More software solution providers will take advantage of embedded BI


+ نوشته شده توسط خشایار جام سحر در سه شنبه سوم مرداد 1391 و ساعت 9:11 بعد از ظهر |

Global Business Intelligence Initiatives: 7 Critical Success Factors (By Murali Nandini)

In the current competitive business environment, leveraging the information assets of an organization is key to building successful global business enterprises of the future. This need has driven multiple global organizations to spend millions of dollars on business intelligence/data warehousing (BI/DW) solutions, but most of these initiatives have yielded less than expected return on investment (ROI) as they have failed to identify and address the critical aspects influencing the outcome of these BI initiatives.

Aspects like management commitment, scope management, end-user involvement, project team skills and use of appropriate methodology are critical for ensuring success of any large-scale global projects. But in addition to the above, for a global BI initiative organizations have to address key challenges like resistance from regional/local users, sustenance of good data quality, scalability of data model and architecture, ongoing maintenance and enhancements, and increasing cost of support. Hence, it is critical to define an execution approach that addresses these key challenges.

There are 7 key factors that determine the success of a global BI implementation. Organizations planning to roll out global BI programs need to plan, incorporate and track these factors to be able to minimize the risks of failure.

The Seven Critical Success Factors

  1. Balancing Global versus Local Requirements: In a global BI initiative, one of the most important aspects to be addressed is the extent of localization flexibility provided in the solution design. An understanding of information requirements at both global and local levels and at corporate and business unit levels has to be captured. While one may take the approach of defining the requirements through a top-down approach (global requirements perspective), it also needs to be closely tied in by a bottom-up approach (local requirements perspective). Lack of this process leads to a spawning of island systems to meet comprehensive information needs and takes away the advantages that are expected in the global BI initiative. Non-compliance to this process will lead to unsatisfied end-customers, and the initiative will not have the buy-in from the local end-user team.

  2. Focus on Data Quality and Stewardship: The most complex attribute in implementing a large BI solution is data quality, and this needs to be ensured through a rigorously implemented data stewardship structure. Organizations need to identify data owners at regional/local level for creation of region-specific master data and should have a centralized team that ensures alignment to corporate guidelines and standards before approving the data migration to downstream BI applications. However, the approval time should be minimal to ensure regional/local business needs can be met in a timely manner.

  3. Flexibility of the Data Model: The data model is at the heart of any BI program. Ensuring scalability of a data model that changes and adapts to a rapidly dynamic environment is a critical requirement in any BI program. In the case of a global BI program, the expectations are significantly higher. Even when utilizing an industry-standard data model, it is very important to do the due diligence and ensure that all outlier scenarios have been evaluated because the cost involved in changing the structure is very high.

  4. Architecture Focus on Standardization, Reusability & Automation: In any globally scaled system automation, a critical aspect is to take care of standardization, and this should be an area of key focus for the initiative. Implementing global standards without an armory of reusable components is a huge challenge, and the initiative also needs to have an unflinching focus on developing reusable components to aid this activity. Reusability also becomes a critical aspect in ensuring that the time to market and efforts are reduced as the initiative progresses.

  5. Depth of Process and Data Knowledge: It is imperative to ensure that the execution team understands the business processes, process nuances and the underlying data. This understanding is critical when delivering a global project. The ramifications of making a change at a later point in time will result in huge amount of data validation that will need to be performed.

  6. Complexity in Dependency Management: The extent of dependencies in a global BI initiative is substantially higher. Considering the fact that the global BI initiatives are heavily dependent on various global and local upstream source systems, MDM etc., it is important that the interdependencies are closely managed. Before initiating global BI initiatives, organizations should identify potential changes/enhancements that are planned to be implemented in the near future in both upstream and downstream applications and assess the potential impact of those changes. The implementation program plan should ensure that no major changes/enhancements are being carried out during the critical phases of the global BI program.

  7. Oversight of Operational Challenges (Context of 24X7 Infrastructure): This is an often neglected dimension when thinking through BI solutions at a global level. The sequencing and the failover planning, for instance, are extremely important in the case of a global infrastructure as the loading and reporting will be happening simultaneously.


+ نوشته شده توسط خشایار جام سحر در یکشنبه یکم مرداد 1391 و ساعت 10:8 بعد از ظهر |

9 Ways You Must Invest in Your Career

Most people are too busy working to stop and think about how to invest in their careers. You may be thinking, "I'm doing my job, isn't that enough?" However, if you want to make sure you stay on the right career track, it takes more than just getting the day-to-day work done to be successful.
Cynthia Good is an award-winning journalist and the chief executive officer and founding editor of, an online resource for professional women. She offers the following suggestions to help you keep your eyes on the prize:

1. Focus on the big picture. It's easy to get bogged down by the little things. You have a bad day, or a bad week, and it seems like the world is coming to an end. Stop and think about it--do you have more successes than frustrations? Concentrate on what you are doing well, and keep looking ahead.

2. Delegate and rely on technology. Are you bogged down in managing minutia, like your calendar, contact information, and errands? Consider possible ways to invest in some help for things you don't actually need to do yourself. For some people, this could involve hiring someone to help with certain tasks, but it could be just as easy as finding some great smartphone applications. Many grocery stores have shopping helper apps, banks provide applications and reminders, and there are countless calendar and day-to-day management applications you may want to try.

3. Network for results. Collecting business cards doesn't count as networking. Have goals in mind when you enter each networking event. Who will attend and whom do you want to try to meet? Know how to introduce yourself, so you are relevant for the person you're meeting. Then, follow-up and keep promising contacts engaged by suggesting a coffee meeting.

4. Propel yourself forward. Good suggests: "If your career isn't going where you want, consider hiring a career coach, picking up a few books about career success, or seeking online resources and newsletters to help keep up-to-date with advice to help you accomplish your goals." If you're stuck in a rut, it will be tough to stay motivated, so do what you can to keep sharp.

5. Keep your online presence professional and up-to-date. When people Google your name, you want to be sure they find useful information about you. Update your profiles to include a great avatar, current information, and correct contact details.

6. Find a mentor. Don't underestimate how important it is to identify someone willing to share advice and information. A mentor can make a real difference in your career. Use online research and in-person networking to help you identify someone whose career you admire, is a good match for you personally, and who is interested in you and your career.

7. Project confidence via your appearance. "You don't have to spend big bucks on a designer ensemble," Good says, but take time to select flattering and up-to-date clothing. She explains, "When you do, you will feel more powerful and confident and other people will notice."

8. Consider continuing education. If you are in a field, but you don't have the formal education you may need to succeed, consider enrolling in a degree or certificate program. "Some companies will even pay for this if you can prove it'll benefit them as well," Good notes.

9. Keep your goals in mind. Don't get caught up in the daily grind, only to wake up one day to realize you haven't accomplished everything you had hoped to do. Make a list of what you want to do. Don't be afraid to include aspirational items--dream big and you'll be more likely to wind up where you want to go.


+ نوشته شده توسط خشایار جام سحر در یکشنبه یازدهم تیر 1391 و ساعت 7:48 قبل از ظهر |

کاربرد داده کاوی در اطلاعات مالی(مهندس علامه)

داده کاوى فرآیندى است براى استخراج الگوهایى که دانش را بازنمایى می کند، که این دانش به صورت ضمنى در پایگاه داده هاى عظیم، انباره داده و دیگر مخازن بزرگ اطلاعات، ذخیره شده است. داده کاوى بطور همزمان از چندین رشته علمى بهره می برد نظیر: تکنولوژى پایگاه داده، هوش مصنوعى، یادگیرى ماشین، شبکه هاى عصبى، آمار، شناسایى الگو، سیستم هاى مبتنى بر دانش ، حصول دانش ، بازیابى اطلاعات ، محاسبات سرعت بالا …..

• سیستمهای اطلاعات مالی:
• سیستم حسابداری ، عبارتست از مجموعه ای از اجزا به هم پیوسته در داخل یک موسسه که آثار مالی رویدادهای آن موسسه را به گزارشها و صورتهای مالی تبدیل می کند ،اما  اینگونه سیستمها، در واحد های اقتصادی مختلف الگوها وقواعد ویژه مخصوص به خود دارند ، بنابراین براساس استانداردها  از پیش تعیین شده، الگوها و مدلهای کارآ و بهینه قابل کشف وارائه نبوده و یا اینکه با افزایش داده ها ، تجزیه وتحلیل ،تشخیص وپیش بینی که نیاز مدیران جهت تصمیم گیری است از میان حجم انبوه داده ها براحتی امکان پذیر نمی باشد.

• تقریبا تمامی فعالیتهای سازمانها بر داده های مالی تاثیر می گذارد
• افزایش روز افزون داده های مالی، گسترش تکنولوژی  ذخیره داده ، میزان تاثیر داده های مالی بر تصمیمات اساسی سازمانها و...
• تحقیق ذیل که میزان تاثیر داده کاوی در صنایع مختلف را نشان می دهد اهمیت داده کاوی در امور مالی را بیش از پیش نمایش می دهد
• مدیریت ارتباط با مشتری 26.1%    بانکداری  23.9%  بازاریابی مستقیم 20.3%
• شناسایی جرم  18.8%   وب کاوی  10.1%  خرده فروشی 10.1%  بیمه 8.7%
• مالی و لیزینگ 7.2%  تجارت الکترونیک  5.8%   امنیت و ضد تروریسم  6.3%
• سرمایه گذاری و بورس  2.9%


• دو گروه عمده که از نتایج داده کاوی بهره می برند عبارتند از:
• الف : مدیران  صنایع جهت ایجاد تصمیم بهتر در حوزه فعالیت که نیاز شدید به دانش نهفته میان داده های شرکت خود و رقبای خود دارند .
• ب: سرمایه گذاران وافرادی که تصمیم دارند پس انداز وسرمایه خود را با انتخاب صحیح، رشد داده و از خطرات دور نگه دارند. اینگونه افراد بایستی از میان حجم عظیمی از داده ها ی شرکتها وصنایع مختلف ، دانش مورد نیاز جهت انتخاب صحیح را کسب نمایند

• بیان ویژگیهای خاص داده های مالی وضرورت تمرکز بر تکنیکهایی از داده کاوی که بیشترین  نتایج مثبت را بتوان استخراج نمود 
• نشان دادن نقاط قوت و ضعف هر یک از روش های داده کاوی  بر روی داده های مالی
• بررسی زمینه های کاربردی داده کاوی در اطلاعات مالی
• وتحلیل تکنیکهایی که از دانش اقتصاد بر الگوریتمهای داده کاوی تاثیر گذاشته است
• پیش نیاز جهت این دوره:
• آشنائی با اصول ومفاهیم داده کاوی ، آمار و اطلاعات مالی 

• مفهوم اغلب کاربردهای زیر، شناسایی یک فرصت کسب و کار و ایجاد یک مزیت رقابتی پایدار را نشان می دهند:
– : پیش بینی این که کدام مشتریان به آگهی های اینترنتی پاسخ می دهند و یا یک محصول ویژه را می خرند و بخش بندی جمعیتی مشتریان.
– : پیش بینی وام های بازپرداخت نشده و کلاهبرداری با استفاده از کارت های اعتباری، پرداخت با استفاده از کارت های اعتباری توسط مشتریان جدید و این که کدام مشتریان بهتر به پیشنهاد وام های جدید یا سایر محصولات و خدمات پاسخ می دهند.
– : پیش بینی فروش و تعیین سطح صحیح موجودی و برنامه های توزیع در میان نمایندگی های فروش.

– : پیش بینی زمان تغییر قیمت اوراق بهادار، پیش بینی دامنه نوسان قیمت و تعیین زمان معامله سهام.
– : پیش بینی تعداد درخواست های مبنی بر پرداخت خسارت و هزینه های پزشکی پوشش داده شده، طبقه بندی مهمترین عناصری که بر پوشش هزینه های پزشکی موثرند، پیش بینی این که کدام مشتریان، بیمه نامه های جدید با خصوصیات مخصوص را خریداری می کنند.
– : پیش بینی هزینه جا به جایی تجهیزات ارتش، آزمودن استراتژی هایی برای درگیری ارتش با دشمن، و پیش بینی مصرف منابع.
: پیش بینی این مسئله که بهتر است چه برنامه هایی در ساعات پرمخاطب پخش شوند و چگونه می توان با دانستن این که پخش آگهی های تبلیغاتی چه موقع انجام شود، حداکثر بازده را به دست آورد.

• داده کاوی و مشتریان                           داده کاوی وبورس وسهام
• داده کاوی و بانک                                داده کاوی و ورشکستگی
• داده کاوی و تقلب                                 داده کاوی و سیستم های اطلاعات حسابداری
• داده کاوی و پیش بینی های مالی
• داده کاوی و هزینه یابی (قیمت تمام شده محصولات)
• داده کاوی در حسابرسی
• داده کاوی وتصمیمهای مالی (مانند اعطا وام و..)
• داده کاوی وسیستمهای خبره
• و................

منبع: وبلاگ مهندس علامه

+ نوشته شده توسط خشایار جام سحر در شنبه دهم تیر 1391 و ساعت 1:21 بعد از ظهر |

جایزه نوبل سال 2001 در اقتصاد به مایكل اسپنس (Michael Spence)، جورج اكرلوف (George Akerlof) و جوزف استیلیتز (Joseph Stiglitz) به خاطر كارشان در زمینه اقتصاد اطلاعات تعلق گرفت. این سه دانشمند در دهه هفتاد میلادی نظریهای را درباره بازار پایه گذاری كردند كه به نظریه اطلاعات نامتقارن شهرت یافت. این مقاله به اختصار دیدگاههای این سه دانشمند را معرفی میكند.
    تئوری اقتصاد در چند دهه اخیر با سئوالات چالش برانگیزی رو برو بوده است؛ از جمله:

  • چرا نرخ بهره در بازارهای استقراض محلی در كشورهای جهان سوم اغلب بیش از حد بالاست؟
  • چرا كسانی كه میخواهند یك اتومبیل دست دوم خوب خریداری كنند ترجیح میدهند به واسطه مراجعه كنند تا به شخص فروشنده؟
  • چرا موسسه ها با اینكه ناگزیرند بابت مالیات سود سهام، چیزی بیش از مالیات متعلق به سود حاصل از افزایش قیمت سهم، بپردازند، سود سهام تقسیم میكنند؟
  • چرا به نفع موسسه های بیمه است كه به مشتریان خود فهرستی از قراردادهایی را عرضه كنند كه در آنها حق بیمه به تناسب افزایش كسورات خسارت بیمه، كاهش می یابد؟
  • چرا مالكان زمینهای كشاورزی كل مخاطره برداشت محصول را در قراردادهای خود با زارعان تهیدست، به عهده نمیگیرند؟

برندگان جایزه نوبل سال 2001 پاسخی مشترك به سئوالات یادشده عرضه كردند و با استفاده از فرضیه واقع بینانه اطلاعات نامتقارن به بسط نظریه خود پرداختند كه:

  • واسطه ها، در این سوی بازار اطلاعات بسیار بیشتری از طرف های معامله در آن سوی بازار، دارند؛
  • وام گیرندگان بهتر از وام دهندگان می دانند كه آینده شان برای بازپرداخت اقساط چگونه است؛
  • فروشندگان بهتر از خریداران میدانند كه اتومبیل چه كیفیتی دارد؛
  • مدیر شركت و هیئت مدیره، بیش از سهامداران میدانند كه سوداوری شركت چگونه است
  • بیمه گذاران بهتر از شركت بیمه میدانند كه تا چه اندازه با خطر تصادف رو برویند
  • زارعان بیش ازمالكانِ زمینهای كشاورزی میدانند كه شرایط برداشت محصول و تواناییشان برای انجام كار، چگونه است.

به طور مشخص، اكرلوف نشان داد كه نامتقارنی اطلاعات ممكن است موجب افزایش انتخاب ناجور در بازارها شود. به علت اطلاعات ناقص وام دهندگان یا خریداران اتومبیل، وام گیرندگانی كه برنامه روشنی برای بازپرداخت اقساط وام ندارند و فروشندگان اتومبیلهای بی كیفیت، با جار و جنجال مانع ورود دیگران به بازار می شوند. اسپنش نشان داد كه در شرایط خاص، واسطه های مطلع می توانند با انتقال اطلاعات خصوصی خود به واسطه های كم اطلاع، درامد بازار خود را بیشتر كنند. به این ترتیب، مدیر شركت با صرف مخارج اضافی برای مالیات سود سهام، خبر از بالا بودن سود می دهد. استیلیتز خاطرنشان ساخت كه واسطه كم اطلاع، گاهی می تواند با عمل «سرندكردن» ، برای مثال با ایجاد حق انتخاب در فهرستی از چند قرارداد برای یك معامله معین، اطلاعات واسطهای مطلعتر را به دست آورد. به این ترتیب، شركتهای بیمه می توانند با ارائه بیمه نامه های متفاوت كه در آنها حق بیمه به تناسب كسورات خسارت بیمه كاهش می یابد، مشتریان خود را ازنظر خطرپذیری به چند طبقه تقسیم كنند.
    مقاله سال 1970 اكرلوف با عنوان «بازار نابسامان » تنها مطالعه تحقیقی با اهمیت در ادبیات اقتصاد اطلاعات است. ایده وی ساده اما ژرف و فراگیر است و آثار متعدد و كاربرد گسترده دارد.
    در این مقاله اكرلوف اولین تحلیل رسمی از بازارهایی را كه با مشكل اطلاعاتی انتخاب ناجور رو برویند، معرفی كرد. وی نوعی بازار كالا را معرفی میكند كه در آن، به اصطلاح رایج، فروشنده اطلاعات بیشتری از خریدار دارد. اكرلوف به كمك فرضیه علمی نشان میدهد كه مشكل اطلاعاتی ممكن است موجب توقف كل بازار شود و یا به صورت انقباضی، بازار را به انتخاب ناجور محصولات كم كیفیت سوق می دهد.
    اكرلوف علاوه بر این به رواج و اهمیت موضوع نامتقارن بودن اطلاعات از این نوع و انواع مشابه آن، بویژه در كشورهای در حال توسعه اشاره دارد. یكی از مثالهایی كه وی درباره انتخاب ناجور به تصویر كشیده، از بازارهای اعتباری هندوستان در دهه 1960 گرفته شده است كه در آن وام دهندگان محلی نرخ بهرهای دو برابر نرخ بهره شهرهای بزرگ، منظور می كردند. به هرحال، واسطهای كه از شهر پول قرض می كند و در شهرهای كوچك قرض می دهد، اما از وضعیت اعتباری وام گیرنده بی اطلاع است، با خطر جذب وام گیرندگانی كه توانایی كمی در بازپرداخت اقساط دارند رو بروست و در نتیجه ممكن است با زیان سنگین مواجه شود. یكی دیگر از مثالهای درج شده در مقاله اكرلوف، مشكلات اشخاص مسن در استفاده از بیمه درمانيِ فردی و تبعیض قائل شدن در مورد اقلیتها در بازار كار است.
    یكی از نكات مهم مقاله بازار نابسامان این است كه واسطه های اقتصادی ممكن است انگیزهای قوی برای پوشاندن آثار زیانبار مشكلات اطلاعاتی بر كارایی بازار، داشته باشند. اكرلوف در این باره بحث میكند كه بسیاری از نهادهای بازار را میتوان به عنوان نهادهای خودجوشی تلقی كرد كه در تلاش برای حل مشكلات ناشی از اطلاعات نامتقارن پدید آمده اند. مثالی از این قبیل عبارت است از تضمین واسطه های اتومبیل، و نمونه هایی از قبیل اسم تجاری، فروشگاههای زنجیرهای، واگذاری حق امتیاز و انواع مختلف قراردادها.
    مثال مناسبی درباره این ایده كه اطلاعات نامتقارن موجب گزینش زیان آفرین می شود، مقایسه ناظری بی اطلاع در قیاس با اشخاص «خودی » است كه ممكن است اطلاعات بهتری درباره آینده سوداوری شركت داشته باشند. در نتیجه، موسسه هایی كه سوداوری آنها از حد متعارف پایین تر است بالاتر ارزیابی می شوند و نسبت به موسسه هایی كه سوداوری بالاتر دارند اما كمتر ارزیابی شده اند، آسان تر می توانند با انتشار سهام خود پروژه های جدید را تامین مالی كنند. می توان نتیجه گرفت كه موسسه هایی كه سوداوری كمتری دارند ممكن است سریع تر رشد كنند و بازار سهام قبل از هر چیز در تسلط «نابسامانی» است. زمانیكه سهامداران نامطلع در نهایت به اشتباه خود واقف شوند، قیمت سهام افت می كند.
    اسپنس این سئوال را مطرح كرد كه چگونه افراد مطلعتر در بازار می توانند به صورتی قابل قبول، اطلاعات خود را به اشخاص كم اطلاع انتقال یا «علامت » دهند و به این طریق جلوی برخی مشكلات ناشی از انتخاب ناجور را بگیرند. علامت دهی زمانی رخ می دهد كه واسطه های اقتصادی از سنجه های قابل لمس و ارزشمند برای متقاعد كردن دیگر واسطه ها استفاده كنند و نشان دهند محصولی با كیفیت و با ارزش در اختیار دارند. سهم اسپنس این بود كه ایده پیش گفته را باز كرد و رسمیت داد و آثار آن را تحلیل و مشخص كرد.
    اولین مقاله اسپنس در سال 1973 آموزش را به عنوان علامت كارایی در بازار كار مطرح می كند. نكته اساسی در این مقاله این است كه علامت دهی به نتیجه نمی رسد مگر اینكه هزینه های آن به صورتی درخور توجه، در میان «فرستندگان» علامت یعنی متقاضیان شغل، تفاوت داشته باشد. كارفرما نمی تواند تمایزی بین متقاضیان كاراتر نسبت به آنهایی كه كارایی كمتری دارند قائل شود مگر آنكه هزینه آموزش برای دسته اول آشكارا كمتر از دسته دوم باشد. اسپنس به علاوه، این موضوع را خاطرنشان ساخت كه تعادل بین آموزش و دستمزد، انواع مختلف دارد كه بستگی به انتظارات اشخاص دارد؛ برای مثال، مردان و سفیدپوستان با كارایی یكسان نسبت به زنان و سیاهپوستان، دستمزد بیشتری دریافت می كنند. تحقیقات بعدی موارد متعددی از كاربرد نظریه اسپنس را نشان میدهد كه به این نظریه وسعت می بخشد و اهمیت علامت دهی در بازارهای مختلف را تایید می كند. این تحقیقات پدیده های مختلفی را دربرمی گیرد، از جمله تبلیغ گرانقیمت یا ضمانت های بسیار گسترده به عنوان علامت های كارایی، پافشاری در كاهش قیمت به عنوان علامت استحكام بازار، تاكتیكهای تاخیری در پیشنهاد حقوق به عنوان علامت قدرت چانه زنی، تامین مالی از طریق استقراض به جای انتشار سهام جدید به عنوان علامت سوداوری، و سیاست پولی ركودآفرین به عنوان علامت تعهد قطعی برای كاهش تورم شدید لگام گسیخته. یكی از مثالهای قدیمی در ادبیات تحقیق، موضوع سود قابل تقسیم است. چرا موسسه ها به سهامداران خود سود سهام می پردازند با آنكه بخوبی میدانند این روش مشمول مالیات بیشتری نسبت به درامد حاصل از افزایش قیمت سهام است. اگر سود در موسسه باقی بماند به سهامدار خدمت بیشتری می شود زیرا افزایش قیمت سهام، انتفاع بیشتری نصیب وی میكند. پاسخ احتمالی این است كه سود قابل تقسیم می تواند به عنوان علامت آینده مناسب قلمداد شود. موسسه هایی كه براساس اطلاعات نهانی می دانند كه سوداوری بالاست، سود سهام پرداخت می كنند زیرا بازار این علامت را به عنوان خبر خوب قلمداد میكند و قیمت بالاتری برای سهام قائل می شود. بالا رفتن قیمت سهام مالیات اضافی پرداختی بر روی سود سهام را جبران می كند.
    یكی از مقاله های كلاسیك استیلیتز به طور مشخص نشان می دهد كه چگونه میتوان در بازارهای بیمه با مشكلات اطلاعاتی برخورد كرد؛ از جمله در مواردی كه شركتهای بیمه اطلاعات كافی درباره ریسك پذیری فردی مشتریان ندارند. اینكار استیلیتز آشكارا در جهت تكمیل تحلیل های اكرلوف و اسپنس است كه درباره اقدامات واسطه های غیرمطلع در بازاری كه اطلاعات نامتقارن دارد، تحقیق میكردند. استیلیتز نشان داد كه شركت بیمه (طرف غیرمطلع) میتواند به مشتریان خود (طرف مطلع)، به روشی كه از آن با اصطلاح «سرندكردن» یاد می شود، پاداش های موثری عطا كند تا آنها اطلاعات مربوط به ریسك پذیری خود را رو كنند. شركتهای بیمه با ایجاد موازنه از طریق سرند كردن و به وسیله عرضه گزینه های قراردادی مختلف كه حق بیمه به تناسب افزایش كسوراتِ خسارت كاهش می یابد و با اعطای حق انتخاب، طبقات مختلف خطرپذیری بیمه گذاران را تمیز می دهند.
    استیلیتز و همكارانش بارها و بارها اثبات كردند كه مدلهای اقتصادی اگر نامتقارن بودن اطلاعات را ندیده بگیرند ممكن است كاملاً اشتباه برانگیز باشند. پیام محققان این بوده است كه به رغم وجود اطلاعات نامتقارن، بسیاری از بازارها چهره كاملاً متفاوت و حق به جانب از خود نشان می دهند؛ چیزی كه در نتیجه گیری های مربوط به شكل های مناسب مقررات بخش دولتی نیز به چشم می خورد. استیلیتز آثار اطلاعات نامتقارن را در مضامین مختلف متعددی تحلیل كرده است كه دامنه آن از بیكاری تا طراحی سیستم بهینه مالیات را در برمی گیرد. یكی از كارهای وی، در زمینه بازارهای اعتبار با اطلاعات نامتقارن است. استیلیتز نشان داد كه به منظور كاهش زیان های ناشی از وام های سوخت شدنی، راه مناسب برای بانك ها قسط بندی كردن پرداخت وام به جای افزایش نرخ استقراض است. از آنجا كه قسط بندی اعطای اعتبار بسیار رایج است، اندیشه های وی گام های مهمی به سمت واقع بینانه تر ساختن نظریه بازارهای اعتبار است و آثار با اهمیتی نیز در قلمرو مدیریت مالی، نظریه پولی و اقتصاد كلان به جای گذاشته است.
    استیلیتز نشان داده است كه اطلاعات نامتقارن و انگیزه های اقتصادی تنها تجربه های دانشگاهی نیستند بلكه پدیده های كاملاً واقعی با ارزش توضیحی بسیار گسترده در تحلیل نهادها و شرایط بازار در كشورهای در حال توسعه، به شمار می آیند. یكی از كارهای اولیه وی درباره مشكلات اطلاعات، با موضوع تسهیم محصول ، كه از اشكال قدیمی ولی رایج معاملات قراردادی است، سر و كار دارد.
    قرارداد تسهیم محصول مقرر می كند كه محصول باید به نسبت ثابت (معمولاً نصف و نصف) بین مالك زمین و زارع تقسیم شود. از آنجا كه مالك زمین معمولاً از زارع ثروتمندتر است برای هر دو طرف مفید به نظر میرسد كه مالك زمین تمام خطر را به عهده بگیرد. اما چنین قراردادی انگیزه های قوی كافی به زارع نمی دهد تا زمین را به صورتی موثر كشت كند. با در نظر گرفتن اینكه مالك زمین اطلاعات ناقصی درباره شرایط كشت و توانایی كاری زارع دارد، سهم محصول در واقع راه حل بهینه برای هر دو طرف است.

منبع: نگارنده دكتر یدالله مكرمی

+ نوشته شده توسط خشایار جام سحر در یکشنبه بیست و یکم خرداد 1391 و ساعت 10:51 قبل از ظهر |

نظريات بانکداری نوين(نظریه اطلاعات نامتقارن)
طی سال‌های اخیر، نظریه بانکداری دستخوش تحولات عمده و شگرفی بوده است. چنین تحولات و تغییرات بزرگی را شاید بتوان به‌عنوان پیامد منطقی سلسله رویدادهایی در نظر گرفت که در بخش مالی اقتصاد کشورهای مختلف، در جریان وقوع است. از میان این رویدادها می‌توان به نوآوری‌های گسترده‌ای اشاره کرد که در عرصه‌های مالی، صورت پذیرفته است؛ نوآوری‌هایی که زمینه‌ساز دگرگونی و انقلاب در بازار مالی و ظهور ابزارهای مالی نوین شده است. در نتیجه، ماهیت بازارها و نهادهایی که باید مشمول نظارت باشند، به‌تدریج در طول زمان تغییر یافته است.
به موازات چنین تحولاتی و در نتیجه آموزه‌های حاصل از بحران‌های مالی - بانکی سال‌های اخیر، فرایند نظارت و تدوین قوانین و مقررات نظارتی نیز مشمول تغییرات اساسی بوده که حاصل آن، پیچیدگی هرچه بیشتر سازوکارهای نظارتی است. نمود بارز چنین پیچیدگی‌هایی را می‌توان در طرح الزامات جدید کفایت سرمایه و هم‌چنین اعمال محدودیت‌های گسترده بر رویه‌های عملیاتی بانک‌ها مشاهده کرد.

در همین اثنا، جریان جدیدی نیز در عرصه محافل علمی بانکداری پدیدار شده است؛ جریانی که بر درک و شناخت متخصصان حرفه مالی و اندیشمندان بانکداری درباره بازار مالی و نظارت بر آن، سایه افکنده است.نظریه اطلاعات نامتقارن، چارچوبی را مورد بررسی قرار می‌دهد که تحت آن، محدوده فعالیت نمایندگان اقتصادی متأثر از ناقص بودن اطلاعات و در پاره‌ای اوقات مغرضانه بودن (فاقد ویژگی بی‌طرفانه بودن اطلاعات) آن است. نگارنده مقاله حاضر بر این باور است که تأکید و تمرکز بر چارچوب‌های مفروض در نظریه اطلاعات نامتقارن می‌تواند زیربنای تحلیل و بررسی بسیاری از مباحثی باشد که در عرصه نظریه بانکداری مورد توجه است.

حقیقت آن است که تحلیل دقیق نظریه اطلاعات نامتقارن، بر شیوه تلقی و نگرش صاحب‌نظران بانکداری از مسائل و مباحث مربوط به نظارت بر بانک‌ها، اثر شگرفی دارد. در نوشتاری که اکنون در مقابل شماست، اثر ناقص بودن اطلاعات بر تحلیل‌های مربوط به ضرورت وجود واسطه‌های مالی و بانک‌ها، شیوه کارکرد آنها و مناسب‌ترین رویه و نحوه عمل در مورد نظارت بر آنها، بررسی خواهد شد. بر این پایه، ابتدا تحلیلی از پدیده ناتوانی بازار در عرصه صنعت بانکداری ارائه می‌شود؛ و در همین ارتباط و در راستای کسب شناخت مناسب‌تر از انواع ناتوانی‌های بازار در صنعت بانکداری، تحلیلی از گونه‌های مختلف نارسایی‌ها و نقصان‌ها در بازار مالی و هم‌چنین استدلال‌های پشتوانه فلسفه وجودی واسطه‌های مالی و بانک‌ها، مطرح می‌گردد. طرح و بررسی چنین آرا و مباحثی موجب فراهم آمدن زمینه‌های دست‌یابی به نوعی نگرش منسجم درباره نقش و جایگاه نظارت در صنعت مالی و نظام بانکی می‌شود.
منافع حاصل از صورت‌بندی ژرف‌نمایی کلی از مبانی نظری نظارت بر صنعت مالی و نظام بانکی از طریق تحلیل نقصان و یا نبود ارتباط میان سازوکارهای نظارتی مانند الزامات کفایت سرمایه و قوانین و مقررات حقوقی و مالی، قابل دست‌یابی است و از این‌رو، بر این مفاهیم و مباحث نیز تأکید ویژه‌ای صورت می‌گیرد.
منبع: سایت بانک ملی ایران
در بسياری اوقات در روابط روزمره ميان دو فرد، يكی اطلاعات بيشتری از ديگری در اختيار دارد كه در علم اقتصاد به اين موضوع «اطلاعات نامتقارن» گفته می‌شود. به عنوان مثال فردی كه دنبال كار می‌گردد بيشتر از كسی كه مي‌خواهد او را استخدام كند از توانايی خود خبر دارد، فروشنده اتومبيل دست دوم بيش از خريدار آن در مورد وضعيت خودرو اطلاع دارد، ...

+ نوشته شده توسط خشایار جام سحر در یکشنبه بیست و یکم خرداد 1391 و ساعت 10:39 قبل از ظهر |
بازار سرمایه،ضرورت اصلاح و بهبود فضای کسب و کار.(دکتر علی رحمانی، دانشگاه الزهرا)

الگوی فرهنگی تصمیم گیری یکی از موضوعاتی است که میتواند به ثبات مالی بازار و تصور ریسک آن و در نهایت اقبال مردم به بازار سرمایه تاثیر گذارد. در ایران، بیشتر اعتقاد به تصمیم گیری شهودی است. حتی افراد با تحصیلات عالی نیز کمتر عادت کرده اند که برای اخذ یک تصمیم، اطلاعات کافی جمع آوری و تحلیلی  کنند.
این امر موجب میشود که شایعات، اخبار غیر رسمی و اطلاعات نهانی تعیین کننده باشد و جهت بازار سرمایه یک طرفه شود. مشکلی که به شکل پدیده صفهای خرید و فروش در بورس اوراق بهادار مشاهده میشود، در حالی که باید شرایط به گونه ای  فراهم شود که مدیران سرمایه های بزرگ، همانند مردم عادی و غیر حرفه ای عمل نکنند. 

منبع: نشریه پول و اقتصاد(دوره جدید)، سال اول، شماره اول(پژوهشکده پولی و بانکی بانک مرکزی) ص ۱۶۶، نگارنده دکتر علی رحمانی، استادیار دانشگاه الزهرا

+ نوشته شده توسط خشایار جام سحر در پنجشنبه هجدهم خرداد 1391 و ساعت 12:55 بعد از ظهر |
چگونه در پشت رايانه ورزش کنیم.
برای انجام حركت كششی روی گردن می‌توانید سرتان را به آرامی به جلو و عقب و چپ و راست برده و به اطراف بچرخانید. در هر زمانی می‌توانید جهت كاهش فشار و استرس این كار را انجام دهید. هیچ گاه سعی نكنید سرتان را حول محور گردن بچرخانید، زیرا این كار باعث آسیب دیدن مفصل‌های گردن می‌شود.
به گزارش ایسنا، برخی از كارمندان مجبورند كه بیش از ۱۰ ساعت در روز پشت میز كامپیوتر خود نشستید. اما، نشستن مدام پشت كامپیوتر برای بدن ضرر دارد، چون باعث ایجاد كمردرد، كاهش بینایی چشم شده و عارضه‌های مختلف دیگری هم دارد. با این حال می‌توان از این مسایل جلوگیری كرد. اگر كار شما هم به گونه‌ای است كه مجبورید در تمام طول روز پشت میز بنشینید، می‌توانید با انجام چند دستورالعمل ساده به بهبود سلامتی خود كمك كنید. البته راه‌های دیگری هم وجود دارد. مثلا می‌توانید صاحب كار خود را متقاعد كنید كه برایتان میزهای بلند تهیه كند تا كارهایتان را به صورت ایستاده انجام دهید.

تحقیقات نشان می‌دهد كه نشستن طولانی مدت تاثیرات مخربی روی سلامتی كارمندان دارد. به همین دلیل لازم است كه هر كاری می‌توانید انجام دهید تا فعالیت خود را افزایش دهید.

۱ـ از صندلی مناسبی كه برای میزتان طراحی شده استفاده كنید و در وضعیت صحیحی بنشینید. كمرتان باید صاف باشد و چشمانتان باید در راستای بالاترین نقطه مانیتور باشد. اگر برای نگاه كردن مانیتور مجبورید به بالا یا پایین نگاه كنید، معنایش این است كه ارتفاع مانیتور مناسب نیست و باید تنظیم شود. همچنین مطمئن شوید كه مچ دستانتان روی صفحه كلید یا ماوس خم نمی‌شود. این كار از بروز سندروم مجرای مچ دست جلوگیری می‌كند. پاهایتان را هم كمی از زانو خم كنید. كف پاهایتان باید به صورت صاف روی زمین و یا یك زیرپایی مناسب قرار بگیرد.

۲ـ حركات كششی ساده انجام دهید: در حال نشستن با بازوها، پاها و گردن خود حركات كششی انجام دهید، این كار باعث جلوگیری از خشك شدن بدن می‌شود.

* گردن: برای انجام حركت كششی روی گردن می‌توانید سرتان را به آرامی به جلو و عقب و چپ و راست برده و به اطراف بچرخانید. در هر زمانی می‌توانید جهت كاهش فشار و استرس این كار را انجام دهید. هیچ گاه سعی نكنید سرتان را حول محور گردن بچرخانید، زیرا این كار باعث آسیب دیدن مفصل‌های گردن می‌شود.

* شانه‌ها: شانه‌هایتان را حدود ۱۰ بار به جلو و عقب ببرید. این كار باعث رفع خستگی شانه‌ها خواهد شد.

* بازوها و شانه‌ها: یك حركت كششی مناسب برای بازوها و شانه‌ها به این صورت است كه دستان خود را به گونه‌ای روی گوشه میز قرار دهید كه عرض شانه‌هایتان افزایش یابد. سپس دستان خود را به صورتی تاب دهید كه بدنتان رو به جلو حركت كند و شانه‌هایتان خم شود. پس از این یك مرحله جلوتر بروید و شانه‌ها و آرنج خود را به میز نزدیك‌تر كنید.

* مچ: مچ‌های خود را هر یك ساعت یك بار به صورت مكرر بچرخانید. برای این كار لازم است مچ‌هایتان را به مدت ۱۰ دقیقه در جهت حركت عقربه‌های ساعت و ۱۰ دقیقه در خلاف جهت عقربه‌های ساعت بچرخانید. اگر مدت زیادی را صرف تایپ كردن می‌كنید، این تمرین برایتان مفید است و از ابتلا به سندروم مجرای مچ جلوگیری می‌كند.

* قوزك پا: قوزك خود را مكررا بچرخانید. برای این كار هم مثل مچ دست، قوزك خود را سه بار در جهت حركت عقربه‌های ساعت و سپس سه بار در خلاف جهت حركت عقربه‌های ساعت حركت دهید. این كار به بهبود گردش خون كمك كرده و از خواب رفتن پاها جلوگیری می‌كند.

* قفسه سینه: ممكن است گاهی اوقات به سمت صفحه كلید خود خم شوید و قوز كنید. برای جلوگیری از این كار تمرین‌های ذیل را انجام دهید: بازوهایتان را به گونه‌ای كه انگار می‌خواهید شخصی را در آغوش بگیرید، از هم باز كنید و سپس مچ خود را به سمت خارج برگردانده و شانه‌هایتان را به عقب بكشید. به كمك این تمرین می‌توانید بدنتان را در خلاف جهت قوز بكشید و كششی خوبی به قفسه سینه خود وارد كنید.

* شكم: عضلات شكم خود را منقبض كرده، چند ثانیه در این وضعیت نگه داشته و سپس رها كنید. وقتی پشت میزتان نشسته‌اید، در تمام طول روز هر چند دقیقه یك بار این كار را تكرار كنید.

* ساق پا: ساق پای خود را بكشید. زمانی كه نشسته‌اید، پاهایتان را بلند كرده و به آرامی پایین بگذارید. این كار را تا زمانی كه احساس خستگی ملایمی در شما ایجاد شده تكرار كنید. پس از آن ۱۰ دقیقه استراحت كرده و دوباره این تمرین را انجام دهید. به مدت حدود یك ساعت این روند را تكرار كنید. این كار باعث تمرین ساق پایتان می‌شود و از تشكیل لخته خون در پاها جلوگیری می‌كند. لخته خون در بین كاربران میان سال كامپیوتر یك پدیده شایع است.

۳ـ هر نیم ساعت یك بار بلند شوید و قدم بزنید: این عمل باعث تسریع گردش خون در دست‌ها و پاهایتان می‌شود و از خستگی آن‌ها جلوگیری می‌كند. برای پر كردن لیوان آب‌تان به آبخوری بروید. در صورت امكان برای قدم زدن از ساختمان خارج شوید و برای پایین رفتن به جای آسانسور از پله استفاده كنید. با این كار علاوه بر این كه پاها و قلبتان به فعالیت می‌پردازد، می‌توانید كمی هم هوای تازه دریافت كنید.

۴ـ چشمانتان را از روی مانیتور بردارید: هر ۳۰ دقیقه از مانیتور چشم برداشته و به سایر اشیای درون اتاق نظیر پنجره، ساعت، میز یا در نگاه كنید. این كار باعث افزایش حركات چشم شده و احتمال خستگی چشم و سر درد را كاهش می‌دهد. یك روش دیگر برای استراحت دادن به چشم‌هایتان این گونه است كه دستان خود را در یكدیگر قفل كرده و آن‌ها را روی چشم‌هایتان بگذارید.

۵ـ از فرصت غیر فعال بودن شبكه یا زمان لازم برای بارگذاری فایل‌های بزرگ استفاده كنید: در این صورت از جایتان برخاسته و كمی قدم بزنید. اگر امكانش وجود داشته باشد و هم كارانتان از دستتان ناراحت نمی‌شوند، می‌توانید برخی حركات ورزشی نظیر پرش را نیز انجام دهید.

۶ـ به كمك ابزارهای ساده ورزش كنید.

* یك گریپر دستی تهیه كنید. این ابزار بسیار ارزان، ساده و سبك است. وقتی می‌خواهید روی مانیتور یا كاغذ چیزی بخوانید، نیازی به دستانتان ندارید. بنابراین می‌توانید از این فرصت برای تقویت دستانتان استفاده كنید. در این صورت در شرایطی كه دستانتان بیكار است می ‌توانید این رینگ پلاستیكی را فشار دهید تا مچ شما تقویت شود.

* یك كش پلاستیكی تهیه كنید. این وسیله هم ارزان، كوچك و سبك است. می‌توانید از كش برای انجام دادن حركت‌های بالا استفاده كنید. به وسیله این ابزار می‌توانید روی عضلات خود حركات كششی انجام دهید.

* می‌توانید یك توپ تعادل یا صندلی بادی تهیه كنید و روی به نحوی كه كمرتان صاف قرار بگیرد روی آن بنشینید. در این صورت مجبورید برای حفظ تعادلتان روی توپ كالری بسوزانید. اگر چه یك توپ تعادل كمك بیشتری می‌كند، اما تهیه صندلی بادی برای محیط‌های اداری مناسب‌تر است. در این صورت وقتی كه نشسته‌اید و یا مشغول مكالمه تلفنی هستید، می‌توانید بدنتان را حركت دهید. البته در هنگام تایپ كردن روی یك صندلی معمولی بنشینید تا مچ دستتان آسیب نبیند.

۷ـ نفس عمیق بكشید: برای تقویت عضلات شكم می‌توانید نفستان را چند ثانیه درون شكم خود حبس كرده و سپس رها كنید. در صورت امكان، با قدم زدن در خارج از ساختمان، هوای تازه وارد بدن خود كنید.

۸ـ كنارتان یك بطری آب داشته باشید و در طول روز آب فراوان بنوشید، اگر همیشه این كار را انجام دهید، هوشیاری‌تان افزایش پیدا می‌كند. برای پر كردن بطری یا لیوانتان به سمت آبخوری قدم بزنید تا به پاهایتان هم فعالیت بدهید.


* پشتی صندلی خود را با زاویه‌ای بیشتر از ۹۰ درجه باز كنید.

* از سلامت چشمانتان غافل نشوید. خیره شدن طولانی مدت به یك نقطه برای روی مانیتور بینایی‌تان مضر است. به همین دلیل سعی كنید از پنجره به بیرون نگاه كرده و به نقطه‌ای در دور دست خیره شوید. همچنین سعی كنید از مانیتورهای LCD استفاده كنید، چون برای چشم خطر كمتری دارند. چشم پزشكان توصیه می‌كنند كه اگر برای مدت طولانی با كامپیوتر كار می‌كنید، از قاعده ۲۰ـ۲۰ـ۲۰ استفاده كنید. این قاعده می‌گوید پس از هر ۲۰ دقیقه نگاه كردن به مانیتور، ۲۰ ثانیه به شی‌ای كه ۲۰ فوت با شما فاصله دارد نگاه كنید.

* وقتی روی مانیتور مطلبی می‌خوانید، چشمان خود را كج نكنید، در بیشتر كامپیوترها می‌توان اندازه فونت را بزرگ كرد. اگر دو كلید + و CTRL را همزمان فشار دهید، اندازه فونت افزایش خواهد یافت تا فشار كمتری به چشمتان وارد شود. فشردن همزمان ـ و CTRL نیز اندازه فونت را كاهش می‌دهد و فشردن همزمان ۰ و CTRL اندازه فونت را به وضعیت پیش فرض باز می‌گرداند. حتی اگر مشكل بینایی ندارید، امتحان كردن این امكان خالی از لطف نخواهد بود.

* بی‌حركت ننشینید: با داشتن تحرك می‌توانید سلامتی خود را حفظ كنید. حركت مدام باعث سوختن كالری می‌شود و به سلامت قلبی ـ عروقی نیز كمك می‌كند. تكان خوردن روی صندلی روش خوبی برای تحرك داشتن است. حتی كار ساده‌ای همچون تكان دادن پا می‌تواند مفید باشد. با این حال، مراقب همكارانتان هم باشید و سر و صدا ایجاد نكنید.

* اگر تنها هستید از پشت كامپیتوترتان بلند شده و ورزش كنید. اگر با تلفن همراه خود صحبت می‌كنید از جایتان برخاسته و حركات كششی انجام دهید. هر كاری كه می‌توانید برای داشتن فعالیت و تحرك انجام دهید.

* سعی كنید ورزش‌هایی انجام دهید كه عضلات مخالفتان درگیر شود. (عضلات منبسط كننده و منقبض كننده نظیر عضله دو سر و سه سر). دست‌هایتان را به نحوی در یكدیگر قفل كنید كه كف دست‌ها با یكدیگر برخورد كنند. پس از آن، یك دست خود را به طرف خودتان بكشید و دست دیگر را به جلو فشار دهید.

* وقتی ورزش می‌كنید، به موسیقی گوش كنید تا فشارهایتان كاهش یابد.

** هشدارها:

* بدن شما به ورزش بیشتری نیاز دارد، بنابراین تصور نكنید كه ورزش كردن پشت كامپیوتر برایتان كافی است. اگر چه ورزش كردن پشت كامپیتوتر مفید است، اما به یاد داشته باشید كه این كار نمی‌تواند جایگزین رفتن به باشگاه ورزشی و یا دنبال كردن یك برنامه ورزشی منظم شود.

* زمانی كه عضلات بی‌حركت باقی می‌مانند، گردش خون در بدن كاهش می یابد. علاوه بر این، عدم فعالیت عضلات باعث تنبلی آن‌ها شده و انجام دادن كارها را برایتان دشوارتر می‌كند.

* نشستن پشت كامپیوتر در وضعیت نامناسب و بی‌تحركی طولانی مدت عضلات در كنار یكدیگر می‌تواند منجر به مشكلات پزشكی نظیر ضایعه تجمعی ناشی از تروما (CTD) یا فشار ناشی از اعمال تكراری (RSI) جلوگیری كند. 


+ نوشته شده توسط خشایار جام سحر در پنجشنبه یازدهم خرداد 1391 و ساعت 10:4 قبل از ظهر |

KPIs for Telecom Industry
Call Centre
Wait times
Average speed of answer
Call volume
Number of complaints received
Revenue per call
Average quality of calls
Number of call transfers
Average call length
Number of one call resolutions
Abandon rates
Customer satisfaction
Number of calls answered within ten seconds
Agent Efficiency

Compliance/Service Analysis
Service connection
Timeframes repairs and installations
New service connections
Activations, de-activations, re-activations
Misc services
Waiting time
Waiting period before grant of service
% order error rates and reasons

% of land covered with services
% of population covered with services
Average land unavailable to services
Average population unavailable to services
Access to customer service

Country Telecom Sector KPI
Penetration ( >5Years Population)
Penetration per House Hold
Top 2 Players Share
Top 2 Players Share Change
HHI Index
Pricing Long Distance/ Local Price Ratio (1.5)
Average F2M Interconnect Rate ($0.005 / Min)
Average M2M Interconnect Rate
Sim/ User ( Number of Subscribers/ Number of handset Sales) (1.5)
ARPU (PPP Adjusted)
ARPU % of disposable income
Mobile Revenue/ GDP (2%)
Regional Roaming Usage (Roaming Travelers / Intra Regional Travelers)

Coverage and Spread
Towns Covered
Population Covered
Area Covered
Globalization: Number of Countries Operating Entity
% Traffic Within Own Mobile (55%)
Top 50% Users Revenue %
Top 50% Sites Revenue %

Customer Satisfaction/Analysis
Average score from external surveys
Average score from internal surveys
Average score from call monitoring
Total number of complaints
Total number of unresolved issues\
Number of responses generated
Customer segmentation
Analysis of subscriptions
Top N customers

Faults and complains (Trouble tickets analysis)
% of open and level of escalation priority required
% closed
mean time to resolved
Work in progress
Customer service level statistics

Financial & Valuation
Gearing ( net Debt/ EBIDTA) (2.0)
EBIDTA % Revenue (30%)
PAT % Revenue (10%)
ROIC (EBIDTA/ Gross Capex) (20%)
FCF (EBIDTA – Capex –Tax) % Revenue (5%)
Capital Productivity (Revenue / Gross Capex) (67%)
EV / EBIDTA (8.0)
EV/ Sales (3.0)
EV/ Subscribers ($200)
EV / GCI (1.0)

Fraud Analysis
Normal traffic
Identify deviations from normal traffic patterns
Normal usage per customer per area of country
Identify phone numbers for customers with high deviation

Green and Sustainability
Energy Consumption/ Sub (10 Kwh)
Co2 Emission/ Sub (6.8 Kg )

Incremental Performance
Share of Net Adds Subs
Share of Incremental Revenue
Quarterly Sites Added
MRPU ( Marginal Revenue Per User)
Subs Growth
Revenue Growth
Services Revenue Growth
Services Revenue Acceleration
ARPU Growth
ARPM Growth
Subs Added / Retail Point of Presence (POP)

Service Performance
RTT Delay (Ms) (800)
Application Through Put ( kbps) (25 Kbps)
Call Setup Time
Network Congestion
Point of Interconnection (POI) Congestion (<0.5%)
Connection Establishment (Accessibility)
Call Setup Success Rate (CSSR) (>95%)
Standalone Dedicated Control Channel (SDCCH) Congestion (<1%)
TDH Congestion (<2%)
Connection Maintenance (Retainability)
Call Drop Rate (CDR) (< 2%)
Worst Affected Cells for Call Drop Rate (<5%)
Connection with Good voice quality (>95%)
Service Quality
Prepaid – Prepaid Service Success Rate
Number Portability – Drop Rate
Handover Success Rate
Network Availability
BTSs Accumulated downtime (<2%)
Worst Affected BTSs due to downtime (<2%)
Quality / Usage (Airtime): Analysis of the volume of successful calls
Mean Opinion Score
Duration of calls
Billed amount on each call

Market Share
Subs Share
Revenue Market Share
Minutes Market Share

Subscriber Acquisition Cost (SAC ) : Dealer Commission, Terminal Subsidy, Sales, Marketing, Distribution
SAC as % Revenue (10%)
SAC / net Addition (12$)
SAC / Minute (0.001$)
Sales Outlet
Company Owned Sales Outlet
Number of Retail Outlets or Point of Presence (POP)
Effect of promo campaign on subscriptions
Trend analysis
Segment analysis
Call behavior analysis

Operational Efficiency
Average Margin Per User (AMPU)
Average Margin Per User (AMPU) Segmentation: Prepaid (More),Postpaid (Less), Blended()
Employee Cost / Town Covered ($2500)
Number of  BTS Sites
Number of  MSC Sites
Number of  Employees
BTS/Subs (1000)
Capex (% Revenue) (25%)
Capex per Sub ($140)
Capex per Minute ($0.07)
Capex per Site ($100K )
Opex per Sub ( $3)
Opex per Minute ($0.02)
Opex per site ($3000)
Gross Capex ( Gross Fixed Assets + Incremental Capex)
Opex as % Revenue (60%)
Spectrum Charges as % Revenue (2%)
License Fee as % Revenue (6%)
InterConnect Cost as % Revenue (16%)
Business Operations Cost
Service Opex (Customer Care & Billing, Service Creation & Administration) as % Revenue (15%)
Network Operating Cost as % Revenue (16%)
Rental as % Network Opex (15%)
Power & Fuel as % Network Opex (25%)
Repair & Maintenance as %Network Opex (20%)
Transmission as % Network Opex (15%)
Core Network as % Network Opex (10%)
Hardware and Software as % Network Opex (10%)
Labor Cost (% Revenue) (5%)

Revenue/Financial Analysis
ARPU ( Average Revenue Per User)
ARPU Segmentation: Voice ($4), Data ($8), Aggregate ($4)
ARPU Segmentation: Prepaid ($3), Postpaid ($11), Blended ( $4)
ARPU from contracts
ARPM (Average Revenue Per Minute)
ARPM Segmentation: Prepaid ($0.15), Postpaid ($0.022), Blended ($0.02 )
Average Revenue Per Call
Average Revenue Per Cell Site
Average Revenue Per Employee
Average revenue realization (ARR)
Average revenue per employee (ARPE)
Average revenue per subscriber (ARPS)
Revenue Breakup (%)
Access: Connection, Subscription (15%)
Wireless Voice (55%)
Data (5%)
Internet (5%)
Interconnect (10%)
Roaming (10%), International Roaming Revenue (1%)
Revenue per voice-minute
% of non-voice revenue
International Roaming Revenue Segmentation: Postpaid (99%)
Periodical Revenue Analysis
Minutes of usage (MoU) per subscriber
Analysis of company overheads
Profit and loss Analysis
Recovery Analysis

Spectrum Efficiency
Busy Hour mErlangs carried per sq km per M Hz (4000)
Busy Hour mErlangs per subscriber (40)
Subs/Km2/MHz (100)
Subs/Km2 (Urban) (2000)
Spectrum per Operator (MHz) (5)

Systems and Network Performance Analysis/Capacity Planning
Grade of service
Service life of equipment
Bit error ratio (data, bits & elements transfer)
Bit rate (data, bits and elements transfer)
Downtime / Time out of service
Call completion ratio
Cost of support systems
Cost of operational systems
Average call length
Analysis of ASR routes
Network traffic, congestion
Idle time on network
Dropped calls

Total Subscribers
Subs Segmentation: Prepaid (95%), Post Paid (5%)
Churn per month (3%)
Subscriber per Employee (13,000)

Telecom Tower
Tenancy Ratio (2.0)
Average Rental per Tenant Per Month ($600)

Minutes of Usage (MOU)
MOU Segmentation: Prepaid (400) , Postpaid (1000), Aggregate (420)
MOU Segmentation: Incoming (220), Outgoing (200), Aggregate (420)
Number of Outgoing SMS Per Sub Per Month (30)
Minutes Carried Per Month (MON) (50 billion)
% Airtime Capacity Utilization
Minutes Per Site
Number of Calls
Number of Calls per Subscriber
Average Call Duration
Roaming Minutes
International Roaming Minutes
International Roaming Minutes Segmentation: Incoming (64%), Outgoing (36%)

منبع : کتاب رهیافتی بر هوشمندی کسب و کار، انباره داده و داده کاوی ، نگارنده خشایار جام سحر

+ نوشته شده توسط خشایار جام سحر در شنبه بیست و سوم اردیبهشت 1391 و ساعت 11:18 قبل از ظهر |

Is Yours Really a Data Warehouse? (by Bin Jiang, Ph.D. )

The answer is completely dependent on your definition of a data warehouse. According to my definition, I have a data warehouse. According to your definition or the definition others use, it may not be.
What is your definition of a data warehouse? Did you try to figure out it before you started to build your data warehouse? If you have built many data warehouses, did the definition used for your first data warehouse remain the same for your second or third one? Or did you define the data warehouse only after you completed it?
While the question “Is it really a data warehouse?” may appear to be preposterous, it is not. What is preposterous is neither the question, nor the answer, but the situation – a unique situation, not only in the scope of the IT history, but in the history of engineering.

Here’s a short exercise that will shed some light on this definitional dilemma:

  • Ask five (senior) people – your colleagues, your boss, your sponsors, or your clients – what “data warehouse” means to each of them.
  • Perform a Google search for “data warehouse definition,” review the definitions on the first results page, and compare all of them.

What do you think now? Keep in mind that the term “data warehouse” is already more than 20 years old (Barry Devlin & Paul Murphy 1988 and Bill Inmon 1992), and the roots of the data warehousing industry began more than thirty years ago. Do you know any other engineering area where such definitional chaos has surrounded the key engineered subject for such a long time? Isn’t it embarrassing or even a little scandalous? I invite you to join me in an effort to end this chaos. A real challenge, isn’t it? And you do like challenges, don’t you?
As the first step, let us review the definition situation by using Google and Wikipedia to collect the most influential, representative, cited, and formal definitions for the data warehouse:

  1. Bill Inmon: A data warehouse is a subject-oriented, integrated, time-variant, nonvolatile collection of data in support of management’s decision-making process. (1992)
  2. Ralph Kimball: A data warehouse is a copy of transaction data specifically structured for querying and reporting. (1996)
  3. Bauer & Günzel: A data warehouse is a physical database, which represents an integrated view of (any) data to enable analysis. (2009)
  4. A data warehouse is a database used for reporting and analysis. The data stored in the warehouse is uploaded from the operational systems. (17.02.2012)
  5. A data warehouse is a database that collects the data from different sources in a consistent format (information integration). (17.02.2012)
  6. A data warehouse is a massive database (typically housed on a cluster of servers, or a mini or mainframe computer) serving as a centralized repository of all data generated by all departments and units of a large organization. (17.02.2012)
  7. A data warehouse is an electronic storage of a large amount of information by a business. Warehoused data must be stored in a manner that is secure, reliable, easy to retrieve and easy to manage. (17.02.2012)
  8. Any system for storing, retrieving and managing large amounts of data. (17.02.2012)

According to the eighth definition above, you have already have a data warehouse if you have successfully installed a database management system (DBMS) like Oracle, DB2, or Teradata in your organization. According to the second definition, you already have a data warehouse as a byproduct of purchasing articles at, for example, Walmart and receiving the receipt at the checkout. The data on the receipt is “a copy of transaction data specifically structured for querying and reporting” by your family CEO, i.e., your wife or your husband.

As the next step, let us review other important terms in these definitions:

  • Subject: “a collection of data,” “a copy of transaction data,” “a physical database,” “a database,” “a massive database,” “an electronic storage of a large amount of information,” “any system”
  • Characteristics of the media: “physical,” “massive,” “electronic,” “any”
  • Characteristics of the data: “subject-oriented,” “integrated,” “time-variant,” “nonvolatile,” “collected,” “non-original,” “specifically structured,” “uploaded,” “in a consistent format,” “centralized,” “a large amount ,” “any”
  • Origins of the data: “transaction data,” “from the operational systems,” “from different sources,” “generated by all departments and units of a large organization,” “by a business,” “any data”
  • Purposes: “in support of management’s decision-making process,” “for querying and reporting,” “to enable analysis,” “for reporting and analysis,” “for storing, retrieving and managing large amounts of data”
  • Must criteria: “secure,” “reliable,” “easy to retrieve,” “easy to manage”

Before we start with the analysis, here are some general do’s and don’ts regarding well-formed definitions:

  • If you want to grant a long life to your definition, do not use instable adjectives such as “massive” or “large.” What was massive, big, large, or small ten years ago, is no longer so today and what is massive, big, large, or small today, will not always remain so tomorrow.
  • If you want to introduce your definition effectively to an audience including more than yourself, do not use subjective and relative adjectives such as “easy,” “secure,” “reliable,“ and “special.” Things easy for you may not be that easy for me, making it difficult to use your definition to judge the things in consideration.
  • Make the definition as restrictive as possible. Be succinct. The more descriptive words included in a definition, the more likely that there will be semantic overlaps, inconsistency and misunderstandings.
  • Avoid using “any” and “all.” What can I do with a definition like “XXX is anything for any purpose?” Is there any information contained in this definition?
  • Use only terms previously well defined or that have unambiguous meaning and interpretation for the audience.

Now, let us review the words used in the above definitions by keeping the good ones and removing the bad:

  • Subject: “a collection of data.” “A database” in the professional jargon means generally “a collection of data,” and “data” is always stored or transferred “physically”, e.g. electronically, magnetically, optically, or materially on paper. “Transaction data” is usually not sufficient to be queried or reported (the receipt given by Walmart mentioned above may be an exception), regardless whether it is the original or a copy. In other words, the term “transaction” is not a good choice according to the usual understanding.
  • Characteristics of the data: “subject-oriented,” “integrated,” “time-variant,” “nonvolatile.” Other good words like “collected,” “non-original,” “uploaded,” “in a consistent format,” “centralized” are all implied by “integrated.“
  • Origins of the data: “from different sources” and “by a business.” The others –“from the operational systems” and “generated by all departments and units of a large organization” – are included by the first two.
  • Purposes: “for querying, reporting, and analysis.” “In support of management’s decision-making process” and “to enable analysis” are two special cases of the former.

Combining the good definitional terms as selected above, we obtain the following consolidated definition:

“A data warehouse is a collection of data from different sources within an organization that is subject-oriented, integrated, time-variant, and nonvolatile, and is purposed for querying, reporting, and analysis.”

Here are several noteworthy points:

  • This definition is deducted according to a completely mechanical procedure. Thus, it should be most comprehensive, objective, and neutral.
  • The most characterizing words originate from the first definition by Bill Inmon. Congratulations, Mr. Inmon!
  • The Inmon’s definition is the only one that provides characterizing words concerning the time aspect, i.e., “time-variant” and “nonvolatile,” and pay attention to the time aspect: two of all four characterizing words are time-relevant.

Now, here are some questions for you:

  • Is yours really a data warehouse according the consolidated definition derived above?
  • If yes, congratulations. If not, what is missing?

The Inmon definition is the oldest and most complete definition for the data warehouse. Why then are there so many newer ones emerging? In other words, do we need other definitions? Possible reasons for other definitions are:

  • Inmon's definition is hard to understand.
  • The required characteristics in the definition are hard to realize.

Is it Inmon’s definition itself that is the cause for the chaotic definitional situation mentioned at the beginning of this article?


+ نوشته شده توسط خشایار جام سحر در یکشنبه هفدهم اردیبهشت 1391 و ساعت 9:47 قبل از ظهر |

This article is a summary of a presentation given to a joint meeting of the Special Libraries' Association and the Society of Competitive Intelligence Professionals (SCIP) in Calgary on 16th May 2002.Competitive intelligence increasingly requires access to and the processing of large quantities of data. Various analytical techniques are available to help create actionable intelligence. This article reviews some of the available techniques.

What is Competitive Intelligence?

The Society of Competitive Intelligence Professionals (SCIP) defines CI as "a systematic and ethical programme for gathering and analysing information about your competitors' activities and general business trends to further your own company's goals". The key point is that any effort expended towards this end must be forward looking, systematic and actionable; In fact if the work does not result in some sort of action, it has probably been a waste of effort.

CI is not market research, benchmarking, the corporate library, nor is it "neat" information, although all these components can contribute to actionable CI. CI is also not espionage, it has a code of ethics, and is a recognised business methodology which is taught in business schools and Universities.

Converting data into intelligence

The process whereby data results in action is illustrated by the information hierarchy:

Actionable Intelligence

The data can originate from various sources as indicated by the attached variation on the JOHARI window:

The top left represents our usable knowledge i.e. we know what we know. This is the data in the corporate library, or in referenced files. At the bottom left we have the unusable knowledge i.e. we don't know what we know. This is material that is stored in filing cabinets, on shelves, and in employees' heads, but is not indexed or referenced in any useful way. About 80% of any organisation's information requirements are contained in house - if only we knew where to look.

The top right quadrant represents our identified needs i.e. we know what we don't know. This is the subject of conventional competitive intelligence - we need to know something and we go out to get it in a focused way.

The bottom right quadrant on the other hand is the most difficult to assess. This represents future opportunities and threats i.e. we don't know what we don't know. It includes developments that can blindside us - particularly in a global economy where a new competitor or technology can emerge from anywhere in the world. It is this area where analysis of data can provide the greatest value.

Analytical Techniques

Analytical techniques are manifest - here is an incomplete list:

  • Reliability analysis
  • Technology Strategic Planning (TSP)
  • Technology Sequence Analysis (TSA)
  • Trend analysis / Maturity analysis
  • Toolbox analysis
  • Technology Matrix
  • Bibliometrics
  • Content Analysis
  • Charting
  • Patent analysis
  • Scenarios
  • Disaggregation
  • Fractal analysis
  • Anomalies
  • Forecasting
  • Blindspot analysis
  • Strength, Weakness Opportunities and Threats (SWOT) analysis
  • Benchmarking
  • War Gaming

This article will address just a few to give a flavour of the power of analytical techniques to provide actionable intelligence.

Technology Strategic Planning / Technology Sequence Analysis (TM)

These techniques rely on analysing component technologies through the use of Boolean operators, in order to assess if and when a product might come to market. The technique can also be used to identify and acquire key missing technologies in order to block a competitor. A paper explaining how it works can be found at The illustration below from the 1994 paper [1], illustrates the technique.
In order for the robot to be viable, it needs only one of the ripeness sensing technologies but all of the others.


+ نوشته شده توسط خشایار جام سحر در یکشنبه دهم اردیبهشت 1391 و ساعت 9:30 قبل از ظهر |

Designing a Scalable and Agile Big Data Platform

CITOs are now facing an infrastructure build out to support big data. How can they avoid the mistakes of the past and end up with an environment that is at the same time enterprise quality but also agile?
If you examine the way the software industry has evolved, there are two currents of technology that are used by businesses. There is the “enterprise-class technology,” designed to be used by thousands of people to solve problems, and which has a goal to be the “system of record” for the business. For that reason “Enterprise” software has to be surrounded by mature capabilities for management, administration, configuration and extension, so that people know the application will always be working properly and will be available.
On the other hand, there has always been a thread of technology we will call “agile,” which is on a smaller scale, and usually used by individuals or small teams to solve a problem directly. The spreadsheet is perhaps the ultimate agile technology, although with the consumerization of technology, this group is expanding, so that it is now easy to build your own blogs, web sites, wikis, and to use consumer-friendly applications, such as

Context and Background
In the software industry there is a current along both lines. Under the “Enterprise” heading, there are systems of record, such as Enterprise Resource Planning (ERP), and large systems for Business Intelligence (BI). There are also “agile” ERP and BI solutions. Software companies are well aware of this distinction, and their ultimate goal is to offer enterprise-quality applications that are as “agile” as possible. Every software vendor has ways of adding and configuring extensions to its product. When these methods are controlled by a preisthood, a bottleneck ensues. When these mechanisms can be used by an end-user to meet their own needs, a product becomes more agile.
This background is interesting to keep in mind when one observes the “big data” arena. There are vendors that clearly offer enterprise class solutions, such as EMC’s Greenplum, Teradata’s Aster Data and Cloudera. Others, such as Splunk, 1010data, and Pervasive’s Data Rush are “agile big data” solutions. Agile Big Data solutions become even more powerful when combined with other agile technologies, such as QlikView, Tableau, or TIBCO Spotfire. The ability to sift through big data and then play with it in an highly interactive visual environment is a powerful combination.
All of this big data technology has been created with an awareness of the challenges of enterprise technology in mind, and has ambitions to be both enterprise-class and agile.
The challenge for CITOs mirrors that for vendors: How can you create a big data infrastructure that is both scalable and enterprise quality, but also is agile, and allows you to unlock the creativity of your work force, preventing them from being trapped in the bottlenecks typically created by enterprise solutions?
In order to understand what kind of big data infrastructure to build, it’s important to understand what kind of value will accrue by building it. As your organization first confronts big data, it makes sense to use Agile Big Data technology to rapidly understand what business value you can find in the steadily growing pool of big data.
Once big data becomes important to your organization, it may makes sense to install an enterprise-quality solution, just as a small company often upgrades from Quick Books, to SAP Business One, to an fully realized ERP system. But then the question is, how can you make sure such a solution still has agile capabilities?

Research Goal
To illuminate the path to an agile, scalable infrastructure that can process big data.


  • How do you understand the value of big data for your business?
  • How do you create an environment in which you can evaluate new big data sources?
  • How can you process big data at scale?
  • How do you make advanced and scalable technologies available to business users?
  • How do you create a solution with agile technologies that can take you as far as possible before it becomes necessary to “go enterprise-class?”
  • When is the right time to implement enterprise quality solutions?
  • What role can the cloud play in running experiments with big-data technology?


+ نوشته شده توسط خشایار جام سحر در دوشنبه بیست و یکم فروردین 1391 و ساعت 9:55 قبل از ظهر |

Does Big Data Always Require Big Money?( By Dan Woods)

One of the themes I noticed this September at O’Reilly Media’s Strata conference in New York was the stratification of Big Data technology into two groups that I’m calling Enterprise and Agile. This division represents the same division we see in the world of Business Intelligence, where the Enterprise class of products includes SAP BusinessObjects, Oracle Hyperion, and IBM Cognos and the Agile class has products like QlikView, Tableau, and TIBCO Spotfire.

If it turns out that using Big Data means having to buy enterprise class products, then Big Data will mean spending big money. But I don’t think it will work out that way. I argue that by using Agile Big Data technologies, companies of all sizes will be able to get the benefit of Big Data for a modest investment. (Check out this problem statement for a CIO/CTO view of the challenge: Designing a Scalable and Agile Big Data Platform) It is vital to reduce the cost of understanding new big data sets much as possible. Once the data is understood and business insights can be harvested from the data, then scaling in various ways becomes the issue, then enterprise technology starts to play a role.

Enterprise vs Agile BI
To understand my argument, we must first review what happened in the world of BI. The enterprise class of BI is designed to serve the needs of a large organization with many islands of information. The typical pattern goes like this: Data from the islands is cleaned and normalized through an ETL process into a data warehouse that becomes the one version of the truth. Then through various reporting and analysis technologies, the data is sliced, diced, and delivered to thousands of people. Enterprise BI is a complex of many applications that all work together to serve the needs of thousands of people in a company. The problem with Enterprise BI is that it takes a long time to configure it to do anything. All large and complex systems are hard to change and configure.
Agile BI has been created to address the frustration that end users have had in getting what they want from Enterprise BI. The Agile BI technologies mentioned above all offer highly interactive ways for end users to play with data, sort, sift, and graph it, without asking help from BI experts. All of the Agile companies mentioned have achieved success and popularity with a growing user base primarily because they are so empowering. To be fair, each of the Enterprise BI companies has products that can reasonably claim to be agile and interactive. But if you ask the executives at those Enterprise companies about the Agile vendors, they usually concede the Agile vendors have hit on a weak spot in their portfolios. The Enterprise companies are going to fix this gap in the next 18 months, one way or another. Another thing to remember is that the Agile products need the single version of the truth provided by Enterprise products. When Agile products are adopted, they are a supplement to the Enterprise technology, one that allows the value of data to be enjoyed far more widely.

Enterprise vs Agile Big Data
The same division is appearing in the world of Big Data technology. EMC Greenplum, Teradata Aster Data, and a few others are representatives of the Enterprise class. Splunk, 1010data, Pervasive DataRush, and a few others represent the Agile class. What is interesting is that vendors of both types of Big Data technology are aware of the Enterprise/Agile divide in BI and are attempting to address it. In other words, the Enterprise Big Data vendors have known from the get-go that they need to be more agile. The Agile Big Data vendors know that they will win more and bigger deals by offering an enterprise quality solution.
The Enterprise Big Data vendors are attacking agility in a couple of interesting ways. Greenplum has launched a product called Chorus that provides a collaborative environment to support the process of analyzing data and finding insights. The environment has constructs specific to the data analysis process like the idea of posting an insight one has gained. Aster Data has provided a set of SQL extensions that allow Hadoop style queries to be expressed using familiar SQL-like syntax. If data is properly pre-processed, business analysts can form queries that answer vexing questions about the path that a customer may have taken through a stream of multi-channel marketing encounters.
Both of these products’ extensions represent significant accomplishments to achieve agility that will make their customers happy. But Greenplum and Aster Data are Enterprise class technologies that come with hefty price tags. The question that interests me is: Can you handle enterprise class problems with Agile Big Data technology for a much smaller investment?

The Case for Agile Big Data for Enterprise Class Problems
If we take a look at the three Agile Big Data technologies I mentioned, the first question is: Why are you calling them Agile?

For me, the answer is simple: They all put the ability to get significant insights out of Big Data into the hands of lesser-skilled people, while at the same time cutting the price. Here’s how:

  • Splunk allows end-users to query, sift, and display large quantities of data using the Splunk search language. After just a bit of training, a mere mortal can crunch through a number of data sets and create summaries and graphics. Splunk handles volumes of data nicely, and when the volumes get really big, you can use its summary indexing capabilities to speed up queries. Using summary indexing is sort of like creating one face of a data cube, but in a lot less time.
  • 1010data takes the spreadsheet concept to the stratosphere of scalability. Sandy Steier, the cofounder, hopes one day to have a 1010data spreadsheet with 1 trillion rows. Right now the high water mark is 425 billion. End users can crunch big data at this volume using a spreadsheet like interface. Of course, there are special constructs to handle time-series processing and such, but most of the time, it feels like a spreadsheet.
  • Pervasive DataRush is less about exploring data than about efficiently processing vast amounts of data in a way that gets the most out of inexpensive hardware. DataRush is a toolkit for designing parallel data processing applications. Using a graphical interface, you can design a model of a program to crunch a bunch of data. When the application created is loaded onto a multi-core computer, it then it determines the number of cores and makes use of them all. As I will explain later, this allows huge amounts of data to be distilled at an affordable price.

Part of this agility is the ability to empower business analysts to explore Big Data. But an equally important part of the agility is the lower price tag. When you start talking to Enterprise vendors about big data, you frequently hear statements like, “And you can do this for only half a million dollars to start out,” or “You can get this set up here for only a million dollars,” or, “You can get this set up here for only 5 million dollars.” The reason that these sentences seem sensible, rather than completely laughable, is that typically vast amounts of money are spent on storage, high performance computing and the abundance of equipment in order to process large-scale data and data warehouses.

A Case Study in Agile Big Data for High Volume Processing
I recently talked to David Inbar, director of strategic market development for the office of the CTO at Pervasive, about an experiment the company performed to show the cheapest possible configuration of machines that could credibly process data in volumes that were large enough to be considered “Big Data.”
As we described in a related article, “Waking Up Multi-Core Processors,” DataRush’s toolkit eliminates a lot of the nasty complexity programmers must master when they want to parallelize a program. Even for tech nerds, parallel programming really is rocket science compared to writing a program for one thread. DataRush provides a way to model parallel applications. Instead of hard-coding functions to efficiently use parallel cores, you can write a normal workflow into a component-based model, and the toolkit translates the model into a program that is as parallel as the workflow allows, handling all of the tricky bits under the hood.
DataRush goes beyond the idea of horizontal scaling, the idea of spreading a workload across many different computers. (Big Data systems like Hadoop use horizontal scaling.) Although DataRush certainly can play such a role and be implemented on thousands of computers, what makes DataRush different is that it focuses on not only being able to use many computers, but also being able to make maximum use of all of the processors on a multi-core system, most often housed inside one machine.
One of the best features of DataRush is that it doesn’t require that you know how many cores will be on the machine that will ultimately run your software. When you write a DataRush program, you use its language to express your application and its parallelism in a model for parallel programming that DataRush provides. Then, when DataRush starts to run on a computer, it senses how many cores are on that computer, and then makes maximum use of all of the cores, to process as much as possible in parallel. This means you get double the parallelism that you would otherwise.
You’re getting parallelism from using multiple computers, but you’re also getting a massive amount of parallelism on each of your multi-core systems, because most software is not written to make maximum use of multi-core systems. We covered this issue in our article, “Multi-Core Slowdown.” Software designed for single-core machines does not necessarily work well on multi-core hardware. This is an unpleasant surprise when IT purchases multi-core machines and expects everything to start going faster.
In addition, even when software is intended to run on multi-core machines, it’s generally not architected to sense and detect how many cores are on a computer. Usually the parallelism approach is set at design time.
So, how does this relate to big data? If you have a very large multi-processing box, you can now squeeze every inch of performance out of it. This will really count when you have big data problems that require your program to chew through and understand quickly what a large amount of data is telling you. This could also be helpful in accelerating the speed of large distributed processing frameworks, such as Hadoop. DataRush has an extension that accelerates performance of each Hadoop node in a grid.
How massive is the performance? In a recent proof of concept on a single 48-core machine, Pervasive recorded 1.6 million events per second, each of which was immediately available for querying and analysis. While just a few years ago that kind of speed would have cost six or seven figures’ worth of hardware, Pervasive conducted this proof on a $15,000 machine. In order to even supply data to the machine with Pervasive installed, the demo team had to run seven other comparably sized machines because the data sources could not produce a stream fast enough to max out Pervasive’s data-crunching capacity.

Putting Agile Components Together to Form an Enterprise Class System
Remember, the most important thing about Big Data is not the computers that process it. It is the data. As a wide variety of new data sources become available, the challenge will be to understand what the data can say. Then the challenge will be to process the volumes of data to deliver the insights discovered as needed. Such systems create a new kind of ability to process large amounts of data from many sources in real time that has come to be known as Operational Intelligence.

I argue that Agile technologies can go a long way toward allowing Big Data to create operational intelligence systems and to support other types of analysis. Imagine this scenario:

  • Splunk or 1010data are used by a team of business analysts who explore new data sources as they come in. For smaller data sources, the Agile BI technologies such as QlikView, Tableau, and TIBCO Spotfire could also be used.
  • Once insights are discovered, they can be put into rules in Splunk or DataRush that can be used to process streams of data in real time to recognize important events.
  • Splunk or DataRush could also be used to create summarized forms of the big data that can be used by the Agile BI technologies.

This scenario would be much cheaper than an Enterprise class Big Data system. Of course, it would also be more brittle and require more care and feeding. Just as Enterprise BI is still needed, so Enterprise Big Data will play a role in large organizations that gain a huge return from exposing Big Data to thousands of people.
But the Agile approach can be used to reduce cost for the hard part: understanding Big Data, proving it has value, and then putting it to work operationally.

Dan Woods is chief technology officer and editor of CITO Research, a firm focused on the needs of CTOs and CIOs. He consults for many of the companies he writes about. For more stories about how CIOs and CTOs can grow visit


+ نوشته شده توسط خشایار جام سحر در دوشنبه بیست و یکم فروردین 1391 و ساعت 9:50 قبل از ظهر |

استیون پل جابز (زادهٔ ۲۴ فوریه ۱۹۵۱) مدیر ارشد اجرایی شرکت رایانه‌ای اپل و یکی از چهره‌های پیشرو در صنعت رایانه است. او به همراه استیو وزنیاک با بنیان گذاشتن شرکت اپل در سال ۱۹۷۶ و ارائه‌ٔ رایانهٔ اپل II، به مورد پسند عام قرار گرفتن مفهوم رایانهٔ خانگی کمک بسیار کرده است. بعده‌ها، او یکی از اولین افرادی بود که به ارزش تجاری بالقوهٔ واسط گرافیکی کاربر و موشواره‌ای که در مرکز تحقیقات شرکت زیراکس در پالوآلتو ساخته شده بود، آگاه گشت و بر افزوده شدن این فناوری‌های نوین به رایانه‌ٔ اپل مکینتاش نظارت کرد. امروزه، به‌عنوان مدیر ارشد عملیاتی شرکت اپل، جابز به نجات‌دهندهٔ اصلی این شرکت معروف شده‌است.

گزيده‌اي از سخنان او را دوست عزيزم علي پاليزبان برايم ارسال كرده است که در زير مي‌خوانيد.

۱ . نو آوری تمایز بین یک رهبر و یک دنبال رو است.
نوآوری هیچ گونه مرزی ندارد. تنها مرز فقط تخیل شماست. زمان در اختیار شماست که چه چیز را می خواهید از این جعبه بیرون بیاورید. اگر شما جزئی از یک صنعت رو به رشد هستید، به راه هایی فکر کنید که بیشتر موثر باشید؛ چگونه مشتری پسندتر باشید و اینکه چگونه به سهولت تجارت کنید. اگر شما جزئی از یک صنعت راکد هستید، هر چه سریع تر از آن بیرون آیید قبل از این که خودتان فرسوده شوید، غیر موثر شوید و از تجارت خارج شوید. به یاد داشته باشید که طفره رفتن اینجا یک گزینه برای شما محسوب نمی شود. هم اکنون شروع به نوآوری کنید.

۲ . معیاری از کیفیت باشید .بعضی از افراد در محیط هایی که ممتاز بودن و برتری انتظار می رود استفاده نمی شوند .
هیچ میانبری به برتر بودن نیست .شما باید برتری خودتان را تعهد کنید .از استعدادها و توانایی های خود استفاده کنید و مهارت هایی که بهترین راه را برای جلو انداختن شما از بقیه مهیا می سازد را به کار گیرید .با یک استاندارد بالا زندگی کنید و به جزئیاتی که واقعا باعث تفاوت شما با دیگران می شود توجه کنید.ممتاز بودن و برتری سخت نیست . خیلی ساده همین الان تصمیم بگیرید که ممتاز و برتر باشید و سپس از آن چیزی که زندگی به شما بازتاب می دهد متحیر می شوید.

۳ . تنها راهی که می توانید کارهای بزرگ انجام بدهید این است که آنچه انجام می دهید را دوست بدارید .
اگر شما هنوز این راه را پیدا نکردید ،به جستجو ادامه دهید .درمانده نشوید .با تمام وجود از ته قلب خود تلاش کنید، سر انجام شما این راه را پیدا خواهید کرد.
من این را در ۴ کلمه خلاصه می کنم : Do What You Love یا کاری انجام بده که دوستش داری . در جستجوی حرفه و مسیری باشید که به زندگی شما جهت ، مقصد و خشنودی می دهد .هدف ها را تشخصی دهید و برای هدف هایی که به زندگی شما معنی و ارزش می بخشد تلاش کنید .این کار فقط به سلامتی روحی و انگیزه داشتن شما کمک نمی کند ، بلکه باعث می شود شما در زمان های سختی احساس بهتری داشته باشید و التیام بخش شما خواهد بود .آیا شما در روز شنبه صبح از تخت خود می پرید و پیش به سوی پیشرفت و کارهای این هفته می روید؟ اگر پاسخ شما خیر است بیشتر فکر کنید تا دلیلش را پیدا کنید .

۴ . می دانید که بیشتر غذایی که می خوریم به دست افراد دیگری درست شده است.
لباسی را می پوشیم که کسان دیگری آنها را ساخته اند. ریاضیاتی را استفاده می کنیم که اشخاص دیگری آن را توسعه داده اند … منظورم این است که ما به ندرت چیزی را به دست می آوریم. خیلی شگفت انگیز و خارق العاده است وقتی چیزی را خلق می کنید که بر اساس تجربه و دانش بشری باشد. به صورتی زندگی کنید که از لحاظ اخلاقی منطقی باشد. سعی کنید که در دنیای اطرافتان تغییری حاصل کنید و به سوی بهتری سوق دهید. آن گاه توجیه بهتری برای زندگی خواهید یافت و بهترین مرهم برای ملالت و خستگی به شمار می رود. همیشه کارهای زیادی برای انجام دادن هست. همیشه در مورد کاری که انجام می دهید با دیگران گفت و گو کنید. نصیحت نکنید یا حق به جانب نباشید و یا متعصبانه فکر نکنید همچنین افراد را از بحث دور نکنید. از مثال زدن خجالت نکشید و از هر فرصتی استفاده کنید که به دیگران اجازه دهید بدانند که چه کاری را انجام می دهید.

۵ . در بودا یک اصطلاح هست به نام : “افکار یک نوآموز” .
بسیار شگفت انگیز است که افکار یک نو آموز را داشته باشید. نوعی طرز تفکر است که هر چیز را به صورتی که هست می بینید، قدم به قدم و در یک آن به ماهیت هر چیز پی خواهید برد. افکار نو آموز نوعی تمرین عبادت و ریاضت در اعمال به حساب می آید. این فکر هست که باعث تصدیق بلا تصور و چشم داشت، قضاوت و پیش داوری می شود. به افکار یک نو آموز که به مانند یک کودک دنیای اطراف خود را می بیند نگاه کنید، پر از کنجکاوی، شگفتی بهت و حیرت.

۶ . ما اساسا معتقدیم که شما تلوزیون نگاه می کنید تا فکر نکنید ، و زمانی که شما با کامپیوتر کار می کنید ، می خواهید فکر کنید.
مطالعات آکادمیک در طول دهه های مختلف نشان دهنده ی این است که تلویزیون اثر مهلکی بر روح و روان انسان دارد. بیشتر بینندگان تلویزیون می دانند که عمل آنها باعث کندی در ذهن و تباهی آن می شود ولی بیشتر زمان خود را جلوی این جعبه می گذرانند. پس تلویزیون را خاموش کنید و سلول های مغزی خود را نجات دهید. اما بسیار محتاط باشید، کامپیوتر هم می تواند باعث از بین رفتن سلول های مغزی شود. سعی کنید صحبتی داشته باشید با شخصی که به مدت ۸ ساعت در روز به بازی های اکشن یا مسابقه ای می پردازد !

۷ . من تنها کسی هستم که یک چهارم یک میلیون دلار را در یک سال از دست داده ام … این موضوع خیلی شخصیت ساز است.
اشتباه کردن را برابر با اشتباه بودن ندانید. شخص موفقی وجود ندارد که تا به حال دچار اشتباه یا شکست نشده باشد، افراد موفق اشتباه می کنند و نوع زندگی خود را عوض می کنند یا نحوه ی عملکرد خود را تغییر می دهند که بتوانند با اشتباه خود رویارویی کنند، پس بار دیگر آن اشتباه را انجام نخواهند داد. آنها اشتباهاتشان را بازگو می کنند تا اخطاری باشد نه اینکه نشانه ی نا امیدی یا بی کفایتی باشند. اشتباه کردن به این معنا نیست که مثل یک احمق زندگی می کنید.

۸ . من تمام فن اوری هایم را برای یک بعد از ظهر بودن با سقراط معامله می کنم.
در دهه گذشته ، کتاب های زیادی از شخصیت های بزرگ تاریخی در کتاب خانه های سرتاسر جهان موجود است . و سقراط به همراه لئوناردو داوینچی، نیکولاس کوپرنیک، چالز داروین و آلبرت انیشتن قله های الهامات در استقلال اندیشمندان هستند. اما سقراط اولین بود. چیچرو در مورد سقراط می گوید: ” او فلسفه را از آسمان به صورت زنده برای مردمان به زمین آورد.” بنابراین از اصول سقراط در زندگی، کار، یادگیری و روابط خود استفاده کنید. این کار را برای خودتان انجام دهید نه برای سقراط، و ببینید چه قدر درستی ، زیبایی و خوبی می توانید به زندگی هر روزه ی خود وارد کنید.

۹ . ما اینجا هستیم که تغییری در جهان به وجود آوریم، در غیر این صورت چرا هم اکنون اینجا هستیم؟
شما می دانید که کارهای بزرگی در زندگی می توانید انجام دهید؟ و می دانید که هر زمان که یک فنجان قهوه برای خود می ریزید چقدر این کارهای بزرگ خاک خواهند خورد؟ و قصد دارید قبل از انجام این کارها کمی بیشتر فکر کنید … همه ی ما با هدیه ای به دنیا آمده ایم که به زندگی بدهیم، هدیه ای برای تمام رؤیاهایمان ، رغبت هایمان، احساساتمان و کنجکاوی هایمان. این هدیه در واقع هدف ماست. شمابرای انتخاب هدف خود نیاز به هیچ اجازه ای از دیگران ندارد . هیچ رئیسی، معلمی، والدینی یا کشیشی این قدرت را ندارد برای شما تصمیم بگیرد که هدف شما چیست. فقط باید این هدف منحصر بفرد را بیابید.

۱۰ . زمان برای شما محدود است، پس وقت خود را برای زندگی دیگران تلف نکنید.
در عقاید تعصب آمیز به دام نیافتید .به گونه ای زندگی نکنید که نتیجه ی افکار افراد دیگری هستید. نگذارید سر و صداهای افکار دیگر باعث شود به صدای درونی خود گوش نکنید. از همه مهم تر، این جرئت را داشته باشید که از قلب خود پیروی کنید. ضمیر نا خود آگاه تنها چیزی است که می داند شما به چه تبدیل خواهید شد. هر چیز دیگر در درجه ی دوم قرار خواهد گرفت.

آیا شما از زندگی برای به تحقق رساندن رویای دیگران خسته شده اید؟ شک نکنید این زندگی شماست و شما این حق را دارید که هر گونه که می خواهید زندگی کنید. به گونه ای زندگی کنید که شما انتخاب می کنید و شما رئیس خود هستید.

منبع:وبلاگ شخصی سیدسعید میرواحدی

+ نوشته شده توسط خشایار جام سحر در شنبه نوزدهم فروردین 1391 و ساعت 11:19 قبل از ظهر |