От перфокарт до чатботов: с чего начиналась и куда идет аналитика данных

От перфокарт до чатботов: с чего начиналась и куда идет аналитика данных История аналитики данных полна сюрпризов — от скромного начала с перфокарт до передового «современного стека данных». Обозреватель HackerNoon решил поделиться краткой сводкой основных событий, которые привели нас к этому моменту.

От перфокарт до чатботов: с чего начиналась и куда идет аналитика данных

История аналитики данных полна сюрпризов — от скромного начала с перфокарт до передового «современного стека данных». Обозреватель HackerNoon решил поделиться краткой сводкой основных событий, которые привели нас к этому моменту.

Создание фундамента (1950-е — 1980-е годы)

1954: Обработка естественного языка (НЛП) делает первые шаги благодаря «Джорджтаунскому эксперименту», в ходе которого была предпринята попытка машинного перевода с русского на английский.

1960-е: Перфокарты, рабочие лошадки ранних вычислительных машин, стали использоваться для хранения и обработки данных.

Википедия

1970: Появляется язык структурированных запросов (SQL), революционизирующий способы взаимодействия с данными и их анализа.

1970-е: Интерактивные системы финансового планирования и первые средства визуализации данных прокладывают путь к более удобному анализу.

1979: Появляется VisiCalc, первая программа для работы с электронными таблицами, демократизирующая анализ данных для широких масс.

Создание современного стека данных (1990-е — 2020-е годы)

1994: QlikView представляет «аналитику на основе приборных панелей», предшественницу современных платформ визуализации данных, таких как Tableau и Power BI.

2003: На сцену выходит Tableau, делая визуализацию данных более доступной и интерактивной.

Tableau

2009: Wolfram Alpha, «вычислительная поисковая система», расширяет границы доступа к информации и ее анализа.

2015: Power BI присоединяется к рынку визуализации данных, предлагая еще один мощный инструмент для бизнеса.

Microsoft Power BI

2017: Запуск ThoughtSpot, который выводит «аналитику, управляемую поиском», на передний план.

Бумага, запросы, электронные таблицы, информационные панели, поиск… Что дальше? На этом история не заканчивается. Сегодня самые интересные достижения связаны с обработкой естественного языка и большими языковыми моделями. Например, Text-to-SQL: вы задаете вопросы на простом языке и получаете в ответ SQL-запросы. Такие платформы, как Wolfram Alpha и ThoughtSpot, позволяют пользователям выражать свои аналитические потребности на естественном языке и получать вычислительные результаты. А технологии, такие как ChatGPT, расширяют границы возможностей анализа данных с помощью генерации кода на основе запроса на обычном человеческом языке.

Возможно, в недалеком будущем мы будем вести естественные беседы с нашими данными, задавать вопросы, исследовать возможности и получать выводы более плавно, чем когда-либо прежде.

Но это уже совсем другая история.