К основному контенту

Heisenbug 2017 Moscow - программа


Всем привет. Молчание в блоге становится уже плохой традицией. Не то, чтобы мне было стыдно, но неуютно - точно.

Но сегодня есть хороший повод. И он, как это у меня в последнее время часто бывает, связан с конференцией тестировщиков Heisenbug.

В этот раз мне удалось посмотреть на кухню организации конфы изнутри. Вечерами во время созвонов с прогонами докладов выпито минимум 40 чашек кофе, хотя иногда, нужно было бы использовать чего покрепче.
Что получилось в итоге мы с вами узнаем уже через день.

Кстати, я узнал, что многие посетители конференций не читают описания докладов. Вы туда, простите, зачем ходите?

Вот традиционная программа посещения конференции от меня. Тут много тех докладов, в подготовке которых я принимал участие (очень хочется посмотреть на результат), а есть и те счастливцы коих минула сия участь.

Для любителей выбрать самостоятельно программа тут

8 декабря
Белый ящик Пандоры
Инструменты тестировщика
Круглый стол – Что должен знать тестировщик в 2018 году?
Как выполнять много UI-тестов параллельно, используя Selenium Grid?
The (Ab)use and misuse of test automation (хотя доклад про геолокацию тоже огненный!)
Бытовая классификация тестировщиков с точки зрения разработчика

9 декабря
Простота, доверие, контроль — три кита автоматизации веб-тестирования (блин, тут на самом деле сложный выбор, потому что все 3 доклада в это время отличные)
Разработчик + тестировщик = качество++
Тестирование «капитальных» объектов (2 других доклада - отличные, это я про АЭС не слушал)
Selenoid — сотни параллельных UI-тестов легко и быстро
Flaky tests
Truths about technical testing

По моим комментам выше видно, что сложно выбрать доклад из 3х параллельно идущих. Вот тут описание доклада и поможет. Я в таких случаях выбираю тот доклад, про тему которого меньше всего знаю - пользы скорее всего больше будет.

Если у вас есть сомнения, пишите, поделюсь инсайдами. Только никому меня не сдавайте :)


Комментарии

Популярные сообщения из этого блога

Mock vs Stub

Когда мы начали изучать модульное тестирование, то одними из первых терминов, с которыми пришлось познакомиться, стали Mock и Stub. Ниже попробуем порассуждать в чем их сходство и различие, как и для чего они применяются. Проверять работоспособность тестируемого объекта (system under test - SUT) можно двумя способами: оценивая состояние объекта или его поведение. В первом случае проверка правильности работы метода SUT заключается в оценке состояния самого SUT, а также взаимодействующих объектов, после вызова этого метода. Во-втором, мы проверяем набор и порядок действий (вызовов методов взаимодействующих объектов, других методов SUT), которое должен совершить метод SUT. Собственно, если коротко, то в одном случае используется Stub, а в другом Mock. Это объекты, которые создаются и используются взамен реальных объектов, с которым взаимодействует SUT в процессе своей работы. Теперь подробнее. Gerard Meszaros использует термин Test Double (дублер), как обозначение для объе

Полезные ресурсы для молодых (и не только) тестировщиков

сперто(с) Уже 3 месяца провожу собеседования тестировщиков (март 2016). Поначалу они просто  веселили - после 15-летнего опыта собеседования С++-разработчиков, общение с тестировщиками (чаще были "-цы") было чем-то экзотическим и забавным. Потом становилось все грустнее и грустнее, мимими закончилось. Началась печаль.

Заметки на коленке - 3. Что еще делать, если ваши тесты уже "зеленые"?

"Lately I find I'm working on automated tests that return non-binary results. Tests that neither pass nor fail" by  @noahsussman Отличная мысль, которую я ретвитил еще в 2016. Но давайте вместе подумаем, что за этим может скрываться? ( кстати, не знаю, что при этом думал Noah ) Ваши тесты прошли и прошли "успешно". Все хорошо или все же есть, куда еще посмотреть? Дальше то, что использовал я лично и то, что еще можно прикрутить дополнительно. Естественно все шаги ниже должны быть автоматизированны. 1. Контролируйте время выполнения тестов. Если набор проверок не меняется (а такое часто бывает, к сожалению), то рост времени выполнения может говорить о проблемах в продакшен коде (чаще всего) или проблемах с окружением. 2. Контроль за количеством выполняемых тестов. "Все зеленое" не значит, что сегодня выполняли те же Х тестов, что и вчера. Смешно(нет), но случается такое, что какие-то проверки "исчезают" из запуска из-за того, что у кого-то &qu